人工智能存在信任問題。我們依靠AI越來越多,但它還沒有贏得我們的信任。
例如,以Autopilot模式駕駛的特斯拉汽車在撞擊停止車輛方面有著令人不安的歷史。亞馬遜的面部識別系統在很多時候都有效,但當被要求將所有535名國會議員的面孔與2.5萬張公開逮捕照片進行比較時,它發現了28個錯誤匹配。一項旨在審查亞馬遜求職者的計算機程序被發現系統地歧視婦女。每個月,都會有新的AI弱點被發現。
現在的問題不在于今天的AI是否需要做得更好,而是今天的AI需要嘗試做一些完全不同的事情。
特別是,我們需要停止構建那些只是用來更好檢測數據集統計模式(通常被稱為深度學習的方法)的計算機系統通常使用稱為深度學習的方法,開始構建能夠掌握時間、空間和因果關系三大基本要素的計算機系統。
現今的AI系統對這些概念知之甚少。以時間要素為例,我們最近在谷歌上搜索了“喬治·華盛頓有沒有電腦?”,這是一個答案需要在時間框架內將兩個基本事實(華盛頓生活時期、計算機發明時期)聯系起來的問題。谷歌的前10個搜索結果都沒有給出正確答案。搜索結果甚至沒有真正解決這個問題。排名最高的鏈接是《衛報》關于瑪莎·華盛頓電腦肖像的新聞報道。
而谷歌的Talk to Books也沒能做到更好,這是一個旨在通過從龐大的文本數據庫提供相關段落來回答問題的AI項目。它提供了20個段落,其中包含大量事實,其中一些涉及喬治·華盛頓,另一些涉及計算機的發明,但兩者之間沒有任何有意義的聯系。
而涉及空間和因果關系的概念時,AI的情況更糟。即使是一個年幼的孩子,第一次遇到奶酪刨絲器,斗可以弄清楚為什么它有鋒利邊緣的孔,哪些部分可以讓奶酪掉落,哪些部分是你可以用手指抓住的等等。但現存的AI系統沒有一個可以正確理解對象的形狀如何與其功能相關。機器可以識別出什么是物體,但不能識別物體的物理特征如何與其潛在的因果效應相對應。
對于某些AI任務,這種主導數據相關的方法可以完美勝任。你可以輕松地訓練深度學習機器,比如識別暹羅貓的照片和Derek Jeter的照片,并區分這兩者。這就是為什么這樣的程序適用于自動照片標記。但是他們沒有實現概念深度。例如,如果有很多不同的暹羅貓,但只有一個Derek Jeter,因此一張顯示兩只暹羅貓的照片并不顯眼,而一張照片顯示兩個Derek Jeters被篡改了。
在很大程度上,這種理解的失敗是像管家Rosie這樣的通用機器人仍然是一種幻想的原因。如果Rosie無法理解世界如何運作的基礎知識,我們就不能信任她。
沒有時間、空間和因果關系的概念,理解許多常識是不可能的。例如,我們都知道任何特定動物的生命始于它的誕生并以它的死亡結束;它在生命中的每一刻都占據著空間中某個特定的區域;那兩只動物通常不能同時在同一個空間,兩只動物可以在不同的時間在同一個空間等等。
我們不必明確地被教授這種知識。這是一套背景假設,即概念框架,使我們對世界的所有其他思考成為可能。
然而很多AI從業人員很少去在他們的機器中構建這樣的背景假設。我們并不是說這樣做很容易,相反,這是一個重大的理論和實踐挑戰。但如果沒有它,我們就不會獲得復雜的計算機智能。
如果我們建造具有豐富概念理解的機器,其他一些擔憂將會消失。例如,哲學家尼Nick Bostrom曾想象過一個強大的AI機器,被指示制作回形針,但他不知道何時停止,并最終將整個世界——包括人類——變成紙夾。
在我們看來,這種反烏托邦的猜測在很大程度上源于對今天無意識AI系統的思考。如果你只能計算統計相關性,則無法概念化損害。但知道時間、空間和因果關系的AI系統是可以編程以遵循更一般指示的事物,例如“機器人不會傷害人類,或通過不作為,允許人類受到傷害”(Isaac Asimov三大機器人法則的第一則)。
我們面臨著一個選擇。我們可以堅持今天對AI的方法,并且極大地限制機器的作用。或者,我們可以將自己的方法轉移到AI系統上,希望開發出對世界有足夠概念性理解的機器,讓我們不必擔心它們的運行。畢竟,任何其他方法都太冒險了。
-
計算機系統
+關注
關注
0文章
288瀏覽量
24140 -
人工智能
+關注
關注
1792文章
47442瀏覽量
239006 -
面部識別
+關注
關注
1文章
375瀏覽量
26657
發布評論請先 登錄
相關推薦
評論