本周一的時候,我們曾報道過,谷歌員工對于Maven 項目的強烈抵制已經引發了公司高層的關注,對此谷歌回應將盡快制定指導其參與軍事項目的道德政策,并明確禁止 AI 武器化?,F在,谷歌終于正式發布了新的 AI 準則。
今日,谷歌 CEO Sundar Pichai 公開發布了題為《AI at Google: our principles》的文章,明確了谷歌使用 AI 的七項原則。其中包括不會將 AI 技術應用于開發武器,不會違反人權準則將 AI 用于監視和收集信息,避免 AI 造成或加劇社會不公等等?!斑@些不是理論概念,而是具體的標準,將積極主導我們的研究和產品開發,并會影響我們的業務決策”。
但同時,谷歌也表示,仍會繼續與政府和軍方展開 AI 合作,例如網絡安全、培訓以及征兵等領域。
▌五角大樓合同為何會引發谷歌員工的強烈抵制?
谷歌的這份妥協要從去年的 9 月份說起。
李飛飛是新興人工智能領域中最耀眼的明星之一,同時承擔著兩項艱巨的工作:斯坦福大學人工智能實驗室的領導,和谷歌云服務人工智能的首席科學家。谷歌云服務是這家搜索巨頭最有前途的企業之一。
而現在,公司通過云服務進行的下一步業務增長,已經讓公司開始涉足武器行業。但是谷歌此前迅速增長的廣告模型已經引發了業界對于谷歌的諸多批評,包括侵犯了用戶的隱私權、支持可疑網站等等。
所以,去年 9 月公司高層緊張地討論如何公開谷歌與五角大樓簽訂的第一個人工智能合約時,李博士就強烈建議避開這份合約。
她在給紐約時報的郵件中寫道:“我們應該不惜一切代價避免所有涉及人工智能的協議。武器化的人工智能即便不是最敏感的話題,那也是數一數二的。這會給媒體機會讓他們想盡辦法破壞谷歌的名聲?!?/p>
李博士對谷歌軍事合同影響的擔憂非常有先見之明。根據泰晤士報審閱的郵件、文件以及十幾位前谷歌員工的訪談表明,自從谷歌拿下了 Maven 計劃合約(該計劃利用人工智能來破解視頻圖像,并用于提高無人機的攻擊目標)以來,谷歌與國防部的“親密”關系已經引發了一場生存危機。
關于 Maven 的內部討論,支持者和反對者都知道這是未來和國防部達成更多、更大合同的敲門磚。但是很多員工認為,Maven 項目的成果可能會被用于殺人無人機,使得谷歌人工智能技術在戰爭中扮演越來越重要的角色。因此,約有 4000 名谷歌員工簽名請愿,要求公司給出“明確的策略,保障谷歌及其合作者永遠不涉及戰爭科技。”這場危機導致谷歌工作小組解散,對內部會議和信息交流的影響更是火上澆油,甚至還迫使一些員工辭職了。
位于倫敦的 AI 先行者 DeepMind(谷歌于 2014 年所收購)高層也表示,他們完全反對軍事和監視項目,而且實驗室的員工們已經對此表示了強烈抗議。DeepMind 與谷歌之間最初的收購合同即表明,DeepMind 的技術永遠不允許被用于軍事或監視用途。
此外,谷歌及其母公司 Alphabet 雇傭了許多世界頂尖的人工智能研究者。一些研究者加州 Mountain View 的一個名為 Google Brain 的 AI 實驗室工作,其他研究者則分布在各個小組,包括 Alphabet 董事會成員 Greene 女士領導的云計算小組。
許多研究者都是來自于學術界,一些人還是教授。其中包括 Geoff Hinton,他曾經負責 Google Brain 在多倫多的實驗室,但由于他不愿意為美國政府工作,現已辭去了職位。在上世紀八十年代末,Hinton 離開了美國回到了加拿大,部分原因就是他不愿意接受美國國防部的資助。
Jeff Dean 是谷歌最有資歷的員工之一,他現在負責公司的所有人工智能工作。此前他曾表示,他已經簽署了一封信,反對在自動武器中使用人工智能,這些武器能自動識別目標并在沒有人類干預的情況下發射。
所以這些因為谷歌對于善意和無私的追求才加入公司的技術專家們,很有可能會“弄巧成拙”地幫助雇主研究如何更有效地殺人——這對于他們來說實在太震驚了,所以,如果谷歌堅持己見,AI 人才的流失幾乎是不可避免的。
對于包括李博士在內的一些公司高層來說,這場危機讓他們十分沮喪,因為他們既要面對道德高尚的科學家們,也要和極力推行國防部合同的銷售人員溝通,這齊間的沖突難以調和。履行國防部合同會趕走人工智能方面最聰明的專家,而拒絕這個合同,則可能會帶來巨大的商業損失。
但是,各種反對五角大樓合同的員工們分享出來的郵件和內部文檔已經表明,一些可預見的異議和負面公關影響是無法避免的。不過也有支持者認為,像微軟和亞馬遜等競爭對手都在狂熱地追逐利潤豐厚的五角大樓合同,因為這些項目對于公司利益的增長至關重要,沒有什么值得羞愧的。
事實上,在 Maven 項目是否應該公開這一點上,許多員工都發表了意見,但基本上他們都同意李博士的意見。李博士出生在中國,在 16 歲時同父母移民到了新澤西,在非英語的環境下成長并成為了科技界的領軍人物。
李博士說,最終決定將由她的上司——谷歌云的首席執行官 Diane Greene 做出。但李博士認為公司應該公開它在 Maven 合同中的占有率,并將其作為 Google Cloud Platform 的“巨大勝利”來宣傳。她還建議,在給項目定性時要“極其謹慎”,“如果媒體認為谷歌在秘密地制造 AI 武器,或研究能用于國防工業的武器的 AI 科技,我不知道會發生什么事情?!彼卩]件中寫到。
被問及 9 月份的郵件,李博士說:“我相信以人為中心的 AI 會以正面、善意的方式給人類帶來好處。而任何將 AI 武器化的項目都違反了我的原則?!?/p>
事實證明,公司并沒有公開 Maven。只有當員工開始抗議時,谷歌接受五角大樓合同的事情才被公布出來。顯然,谷歌不可能在不引起公眾注意的情況下悄悄地與國防部合作。李博士所希望的不涉及 AI 被證明不現實。谷歌在華盛頓的一名管理者 Aileen Black 說,“但我們可以把方向轉變至云計算上來,我們需要在業界給我們定性之前做出轉變?!?/p>
針對員工們的強烈抗議,谷歌向員工保證,會出臺一系列原則,以在國防和智能方面的合同上就道德問題做出指導。上周四時,CEO Sundar Pichai 就表示,谷歌會出臺一系列“經得起時間考驗”的指導原則。
▌谷歌 AI 使用七原則
來自谷歌官方博客今日發布的這份聲明表示,人工智能的應用將會對未來社會產生深遠影響,作為人工智能領域的領導者,谷歌深感重任。因此,谷歌正式宣布了七項原則來指導公司今后的 AI 工作——Pichai 表示,這些具體的標準將積極主導谷歌的研究和產品開發,并會影響公司的業務決策。
以下為谷歌 CEO Sundar Pichai 所署名文章的部分摘選:
AI 的核心是可以學習和適應的計算機編程,它不能解決所有的問題,但擁有巨大的潛力改善我們生活。在谷歌,我們使用 AI 讓產品更有用,從沒有垃圾郵件并且更容易撰寫的電子郵件,到可以自然對話的數字助理,再到突出有趣內容供你欣賞的照片。
我們認識到,人工智能如何開發和使用,將對未來多年的社會產生重大的影響。我們也意識到,這個領域是不斷變化和不斷發展的,我們將以謙遜態度對待我們的工作,我們也愿意隨時間的推移調整我們的方法。
我們將根據以下目標評估 AI 應用。我們認為 AI 應該:
對社會有益。人工智能的進步將對包括醫療保健、安全、能源、運輸、制造和娛樂在內的各種領域產生變革性的影響。我們將努力使用 AI 來隨時提供高質量和準確的信息,同時繼續尊重所在國家的文化、社會和法律準則。
避免制造或加強不公平的偏見。人工智能算法和數據集可以反映、加強或減少不公平的偏見。我們將努力避免造成不公正的影響,特別是與種族、民族、性別、國籍、收入、性取向、能力及政治或宗教信仰等有關的人。
建立并測試安全性。我們在設計人工智能系統時會保持適當謹慎,并根據人工智能安全研究的最佳實踐尋求開發它們。在適當的情況下,我們將在受限環境中測試AI技術,并在部署后監控其操作。
對人負責。我們將設計能夠提供反饋、相關解釋和說明的 AI 系統。我們的 AI 技術將接受適當的人類指導和控制。
納入隱私設計原則。在開發和使用 AI 時將融入隱私原則,提供通知和同意,鼓勵具有隱私保護措施的架構,對數據使用提供適當的透明度和控制。
堅持科學卓越的高標準。人工智能工具有可能在生物學、化學、醫學和環境科學等關鍵領域開拓科學研究和知識的新領域。我們將與一系列利益相關者合作,以科學嚴謹和多學科的方式來全面引領領域發展。
為符合這些原則的用途提供。我們在開發和部署 AI 技術時,將根據以下因素評估可能的用途:主要目的和用途、性質和唯一性、規模、谷歌參與的性質這四個方面。
除了上述目標之外,我們不會在以下應用領域設計或部署 AI:
已造成或可能造成整體性傷害的技術。存在重大傷害風險的情況下,我們只會在好處遠遠超過風險的情況下繼續進行,并納入適當的安全限制。
武器或其他主要目的是導致或直接造成人身傷害的技術。
收集或使用信息的技術違反國際公認的規范。
其目的與國際法和人權普遍接受的原則相違背的技術。
我們希望明確的是,雖然我們沒有在開發用于武器的 AI,但我們將繼續在其他許多領域與政府和軍方合作,包括網絡安全、培訓、軍人招募、退伍軍人醫療、搜索和救援。這些合作是很重要的,我們將積極尋找更多方法來加強這些組織的關鍵工作,并確保服役人員和平民的安全。
長期的人工智能
隨著人工智能技術的進步,我們將與一系列利益相關者合作,采用科學嚴謹、多學科方法提升這一領域的領導力。
我們將繼續分享我們在改進 AI 技術和實踐方面的經驗。
對于谷歌的這份聲明,外媒們也發表了不同的看法。
The Verge 評價稱:
“多年來,群眾們對于人工智能發展的批評一直都有?,F在,硅谷公司已投入了更多的人工智能安全研究資源。然而,正如谷歌的新道德原則所表明的那樣,制定足夠廣泛的規則以涵蓋各種各樣的場景是很困難的。所以,公共監督對確保人工智能的公平部署仍是十分必要的?!?/p>
The Washington Post 報道稱:
“一位不愿透露姓名的谷歌代表提到,公司這幾個月來一直在制定道德原則,并將聘請外部顧問進行內部審查,以確保 AI 準則得到執行?!?/p>
BI 評價稱:
“此舉力在解決谷歌正面臨的平衡問題,一方面是想在云業務上與亞馬遜、甲骨文和微軟展開政府合同競爭,同時在尋求擺脫'不作惡'的公司信條。”
▌寫在最后
但是一個不爭的事實是,即使谷歌拒絕了,國防部也不可能放棄對人工智能的追逐。而且軍事專家說,中國和其他發達國家已經在研究 AI 在國防中的應用了。利用人工智能,國防部可以對無人機成像進行更細致的分析,可以增加尋找并識別恐怖分子的能力,而且可以減少平民上網頻率。
也許這也是此次谷歌仍不放棄與軍方合作的一大原因。
谷歌聯合創始人 Sergey Brin 就谷歌參與 Maven 項目一事曾回應,他理解這些反對的聲音,他也和 Sundar Pichai 等內部高層就這個問題進行過深入的討論。他認為,如果世界的軍事力量能與谷歌這種國際性組織合作,而不是獨立與那些國家主義的公司合作,反而對世界和平更有好處。
-
谷歌
+關注
關注
27文章
6171瀏覽量
105469 -
AI
+關注
關注
87文章
30996瀏覽量
269283
原文標題:谷歌終于拒絕 AI 武器化了!
文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論