在經歷了員工公開信和辭職抵制,以及外部聲討之后,谷歌終于在上周五決定退出軍事 AI 項目 Project Maven ,緊接著,本周四也在官方博客正式公布了使用AI的七項原則,以及四條底線。
這些原則和底線是適用于公司在 AI 研究,特別是 AI 軍事研究上的道德準則。Google CEO皮查伊說,雖然AI技術為消費者和企業提供了許多好處,但谷歌認識到,這項技術“將在未來幾年對社會產生重大影響”,而且管理者“需要承擔起確保其被正確使用的責任”。
七項原則
涉及AI的七項原則包括對社會有益,避免制造或加強不公平的偏見,提前測試安全性,對人負責,保證隱私,堅持科學高標準以及從主要用途、技術獨特性等方面來考慮。對此,谷歌認為人工智能應用應該實現的目標如下:
1. 有益于社會
新技術的擴展對社會的影響越來越大。AI 領域的進展將對醫療、安全、能源、交通、制造業等大量行業帶來革命性影響。谷歌考慮 AI 技術的潛在開發和使用,以及大量社會和經濟因素,決定將繼續進行其認為整體益處遠遠大于可預見風險和弊端的領域。
2. 避免創造或增強偏見
AI 算法和數據集能夠反映、強化或減少偏見。谷歌意識到區分公平和不公平偏見不總是那么簡單,且在不同文化和社會背景下有所不同。谷歌將尋求避免對人類的不公平影響,尤其是在敏感話題方面,如種族、民族、性別、國家、收入、性取向、能力和政治或宗教信仰。
3. 為保障安全而建立和測試
我們將繼續開發和應用強大的安全保障和安全的實踐以避免不希望發生的導致風險的結果。我們將把 AI 系統設計得適當的謹慎,并探索按照 AI 安全研究的最佳實踐來開發的方式。在合適的案例中,我們將在受限的環境中測試 AI 技術,并在部署之后監控它們的運行。
4. 對人們有說明義務
我們將設計能為反饋、相關解釋和上訴提供合適機會的 AI 系統。我們的 AI 技術將服從合適的人類指導和控制。
5. 整合隱私設計原則
我們將把我們的隱私原則整合進 AI 技術的開發和使用中。我們將為通知和準許提供機會,鼓勵架構中結合隱私保護,并對數據的使用提供合適的透明度和控制。
6. 堅持高標準的科學探索
技術創新根植于科學方法和開放式的調查、嚴謹的思考、誠信和合作。人工智能工具可能在生物、化學、醫藥、和環境科學等關鍵領域具有開拓新科學研究和知識的潛力。我們致力于促進人工智能的發展,追求高標準的科學探索。
7. 根據原則確定合適的應用
許多技術有多種用途。我們將努力限制可能有害或濫用的技術應用。
四條底線
除了上面的目標,谷歌不會設計或者將 AI 應用到以下領域:
1.制造整體傷害之處。如一項技術可能造成傷害,我們只會在其好處大大超過傷害的情況下進行,并提供安全措施;
2.武器或其他用于直接傷害人類的產品;
3.收集使用信息,以實現違反國際規范的監控的技術;
4.目標違反被廣泛接受的國際法與人權原則的技術。
各方評價
看見這份《原則》,不少Google員工給出了很愉快的評價。
Google現任AI負責人Jeff Dean除了在Twitter上分享Google發表的這份原則之外,還提到為了真正踐行這些原則,他們還提出了一套技術實踐指南Responsible AI Practices,指導科學家和工程師們在構建AI產品的時候應該注意什么。
DeepMind聯合創始人Mustafa Suleyman自己沒有發表觀點,而是在Twitter上轉發了人權觀察組織(Human Rights Watch)Mary Wareham的話:各國政府應該關注到科技行業的最新動態,開始就禁止全自動武器展開協商,制定新的國際法規。
也有相關學者表示,建立一種明確而貫徹始終的標準來反對自身技術的武器化將有助于谷歌證明其捍衛國際客戶和用戶信任的決心。
值得一提的是,在谷歌提出的AI原則中,谷歌也表示將會繼續與政府和軍方展開AI合作,例如網絡安全、軍事訓練、軍隊招聘、退役軍人康復、搜尋救援等領域。
這時候,與以往一樣,公共監督和不停的辯論,或許是確保人工智能公平部署,并產生對社會有益的方式之一。正如谷歌這次面對的情況一樣,對于那些手握數據和技術的科技公司而言,它們必須要習慣于公眾開始討論技術使用的道德問題。
-
谷歌
+關注
關注
27文章
6164瀏覽量
105322 -
AI
+關注
關注
87文章
30763瀏覽量
268909
原文標題:GGAI 頭條 | 谷歌發布AI使用七項原則 四條底線
文章出處:【微信號:ggservicerobot,微信公眾號:高工智能未來】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論