不久前,一篇題為《AI寒冬將至》的文章火了,引發AI領域專家學者、研究人員、學生甚至吃瓜群眾的大量討論。該文對有關深度學習的炒作提出批評,認為深度學習已經塵埃落定,就像股市會崩盤,AI的寒冬一定會再次來臨,雖然無法預測它何時來臨。這篇文章的作者Filip Piekniewski是計算機視覺和AI領域的專家,經過幾周的思考,他重新總結了自己對AI的觀點,值得深思。
最近幾周,我被迫重新思考和總結我對AI的看法。在《AI寒冬將至》那篇帖子廣為傳播后,很多人通過電子郵件和twitter聯系我,提出了很多好的建議。因此,我決定以簡潔的方式寫一下我認為我們的人工智能方法存在什么問題,以及我們可以解決什么問題。以下是10個要點:
1.我們被圖靈對智能的定義所束縛了。圖靈有關智能構想很著名,他將智力限制為一種和人類進行語言游戲的解決方案。具體來說,圖靈將智能設定為(1)游戲的解決方案,(1)將人類置于判斷的位置。這個定義非常具有迷惑性,并很適合人工智能領域。狗,猴子,大象,甚至嚙齒類動物都是非常聰明的生物,但它們沒有語言,因此也不可能通過圖靈測試。
2.人工智能的核心問題莫拉維克悖論(Moravec's paradox)。這個問題在今天要比1988年它剛被提出時要明顯得多,而我們在過去30年里幾乎沒有采取任何行動來解決這個問題,這是令人羞愧的。莫拉維克悖論的核心論點是,現實中最簡單的問題比最復雜的游戲更難解。(注:如莫拉維克所寫;“要讓電腦如成人般地下棋是相對容易的,但是要讓電腦有如一歲小孩般的感知和行動能力卻是相當困難甚至是不可能的。”)我們沉迷于令AI在游戲中超越人類(以及其他受限且定義明確的話語領域,如數據集),將其作為智能的指標,作為一種與圖靈測試一致的標準。我們完全忽略這樣一個事實:對智能的最終判斷由現實本身,而不是由一個人類組成的委員會作出。
3.我們的模型甚至可能起作用,但往往是出于錯誤的原因。我在其他文章詳細闡述過這點,深度學習就是一個很好的例子。深度學習顯然已經解決了物體識別問題,但是大量研究表明,深度神經網絡能識別物體的原因與人類能觀察到物體的原因大不相同。對于用圖靈測試精神欺騙人類的人來說,這可能并不重要。但對于關注人工智能體處理非預期(域外)現實的能力的人來說,這是至關重要的。
4. 現實不是游戲。就算跟游戲有關,它也是一個無限的游戲集合,其中的規則不斷變化。任何時候只要出現了重大發展,游戲規則都會要重寫,所有玩家都需要作出調整,否則就會死亡。智能是一種機制,它會進化以令智能體能夠解決問題。由于智能是一種輔助我們玩“規則不斷變化的游戲”的機制,因此作為一種副作用,它能讓我們玩有一套固定規則的實際游戲也就不足為奇了。但反過來就不成立了:構建在玩固定規則游戲時勝過人類能力的機器,跟構建一個能夠玩“規則不斷變化的游戲”的系統差得遠了。
5.物理現實中有一些規則是不變的——即物理定律。我們用語言描述他們,并利用它們來做預測,從而建立文明。但是為了在這個物理環境中行動,這個星球上的每一種生物體都掌握了這些定律,并不需要語言。小孩子在學會牛頓運動定律之前,就知道蘋果會從樹上掉下來。
6.我們的視覺統計模型其實是非常不足的,因為它們僅依賴于某一時間的事物和人類指定的抽象標簽進行識別。深度神經網絡能夠看到數以百萬計的蘋果掛在樹上的圖像,但永遠不可能發現萬有引力定律(以及許多對我們來說很顯然的東西)。
7.常識的困難之處在于它對我們而言是在太顯而易見了,甚至很難用語言去描述它,進而在數據中給它打標簽。對于所有“顯而易見”的東西,我們存在巨大的盲點。因此,我們無法教計算機常識,不僅因為這可能不切實際,更根本的原因是我們甚至沒有意識到“常識”是什么。直到我們發現機器人做了一些很愚蠢的事情,我們才頓悟:“哦,原來它不懂...... [這里可以填任何顯而易見的常識] ......”。
8. 如果我們想解決“莫拉維克的悖論”(我認為應該是當今任何嚴肅的AI工作的焦點),我們就多少需要模仿生物體純粹依靠觀察世界學習的能力,而不需要標簽。實現這一目標的一個有希望的想法是構建一個系統,對未來的事件進行預測,并通過將實際的發展與系統的預測進行比較來學習。大量的實驗表明,這確實是生物大腦中發生的事情,并且從許多角度來看這樣做都很有意義,因為這些系統必須要學習物理定律。預測視覺模型(predictive vision model)是朝這個方向邁出的一步,但肯定不是最后一步。
9.我們迫切需要在圖靈的定義之外定義“智能”的特征。一個不錯的想法來自非平衡態熱力學(non-equilibrium thermodynamics),并與預測假設一致。我們需要這樣做,因為我們需要構建智能體,這些智能體肯定通不過圖靈測試(因為它們沒有語言智能),但我們需要一個框架來衡量我們的進展。
10. 我們今天所做的幾乎所有稱之為AI的事情,都是可以用語言表達的某種形式的自動化。在許多領域,這些所謂AI可能有用,但這與用Excel取代紙質表格來幫助會計師,實際上沒有什么不同。有問題(并且問題始終存在)的領域是自主(autonomy)。自主不是自動化(automation)。自主不僅僅意味著自動化。如果是要求比人類更安全的自主的話,那么它意味著更多,比如說自動駕駛汽車。自主應該是廣義智能的同義詞,因為它假設能夠處理意外的、未經訓練的,未知的事物。
以上是我想傳達的核心要點。這些論點有細微的差別,這就是我寫這篇文章的原因。當然,如果你承認這些要點,我們的觀念就基本上是一致的。《AI寒冬將至》那篇文章還有其他許多細節受到激烈的辯論,雖然我認為這些細節不是必要的,但為了完整起見,讓我就其中的一些表達我的看法:
1.天生的還是后天習得的?當然,有的生物具有天生的能力,但無疑也有后天學習的東西。不過,這是一個與實現(implementation)相關的問題,我認為它沒有明確的答案。在我們未來的發展中,我確信我們會使用兩者的結合。
2.學習特征還是人工構建的特征?這是一個相關的問題。我的觀點是,“皮層計算”(cortical computation)的絕大部分會被習得,這是在AI和自主的背景下(但這并不意味著如果它被證明有用,或由于某種原因難以學習,我們就不能人工構建它)。大腦里還有很大一部分很可能預置的。在更具體的自動化應用中,這兩種情況都可能會有。在某些情況下,學習的特征可能明顯優于人工構建的特征(這是深度學習的賣點所在),但在許多應用中,人工精心制作和開發的特征絕對、毫無疑問優于任何學習的東西。總的來說,我認為這是一個偽命題。
3.脈沖,連續,數字還是模擬,又或是量子?我對此沒有非常強烈的主張,每一種都有優點和缺點。數字簡單,確定并且易于獲得。模擬很難控制但功耗要低得多。脈沖(spiking)也是,,雖然它的額外好處是更接近生物學,這可能意味著它是更好的解決方案。量子? 我不確定是否有強有力的證據證明量子計算在解決智能問題方面有必要性,盡管我們可能會發現它是必要的。這些都是“如何做?”(how)的問題,但我的主要興趣還是“是什么?”(what)的問題。
-
人工智能
+關注
關注
1791文章
47200瀏覽量
238269 -
圖靈
+關注
關注
1文章
39瀏覽量
9699
原文標題:《AI寒冬將至》作者:人工智能存在十大問題
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論