到目前為止,幾乎所有能夠制造或管理人工智能產品(包括生物識別技術)的組織都知道創建道德原則以保護強大技術的重要性。
當然,認識到對原則的需求并加以發展是兩回事。采納道德原則并實際執行這些原則也是如此。
加州大學伯克利分校的研究人員撰寫了一份報告,重點介紹了在實施原則方面的值得注意的工作,并將其用作其他尋求實施的組織的指南。
該報告是由大學的長期網絡安全中心編寫的。它在三個實施案例研究中尋找教訓,這些案例研究涉及Microsoft公司的AI,工程與研究中的道德與影響(AETHER)委員會,非營利性研究實驗室OpenAI Inc.和一個智囊團,經濟合作組織與發展組織(OECD)。
報告還概述了其他35項正在進行的實施原則的努力。審查的項目包括設計工具,框架,計劃和標準,所有這些工具均旨在開發“可信賴”的AI。
在第一個案例研究中,微軟高管明確成立了AETHER委員會,以使AI工作與公司的核心價值保持一致。實際上,這是公司范圍內的七個工作組,旨在尋找針對AI及其客戶開發和使用AI所產生的相應問題的答案。
報告稱,提出的問題集中在敏感和戰術性話題的混合上,包括“偏見與公平,可靠性與安全以及對人權和其他危害的潛在威脅”。面部識別的懷疑論者列舉了所有這些威脅,微軟去年才實施了這些原則。
OpenAI案例研究的重點是去年9個月以來分階段發布的GPT-2(一種無監督的AI語言模型)。通常,一個模型會完全發布,但是該機構選擇了“負責任公開的實驗”。
OpenAI領導者擔心,如果他們不刻意,他們的模型可能會被部署來綜合產生誤導性新聞,濫用內容或網絡釣魚攻擊。因此,他們發布了越來越大的模型(以參數衡量)。
-
生物識別
+關注
關注
3文章
1210瀏覽量
52530 -
人工智能
+關注
關注
1792文章
47409瀏覽量
238924
發布評論請先 登錄
相關推薦
評論