近年來,人工智能迅猛發(fā)展,即便是沒有深入了解過人工智能技術(shù)的人,想必也或多或少地聽過兩個(gè)術(shù)語——符號(hào)人工智能和神經(jīng)網(wǎng)絡(luò)。隨著人工智能的發(fā)展不斷成熟,MIT-IBM 沃森人工智能實(shí)驗(yàn)室主任 David Cox 認(rèn)為,如今人們需要重新審視人工智能,他提出將上述二者結(jié)合,開發(fā)一種「神經(jīng)符號(hào)人工智能」(Neuro-Symbolic AI)。
本文將詳細(xì)介紹神經(jīng)符號(hào)人工智能背后的原理,作者為英國科技作家 Luke Dormehl ,雷鋒網(wǎng)在不改變?cè)獾幕A(chǔ)上對(duì)原文進(jìn)行了編譯。
想象一下,一個(gè)托盤上有 8 個(gè)物體:有立方體,有球體,材質(zhì)不同,大小不一。那么我的問題是,托盤上的大件物體和金屬球的數(shù)量是否相同?
你可能會(huì)感到不解,覺得我的問題有點(diǎn)兒刁鉆。相反,這并不難,甚至學(xué)齡前兒童都能輕松回答。但對(duì)于當(dāng)今最先進(jìn)的神經(jīng)網(wǎng)絡(luò)來說,這太難回答了。因此,即使人工智能對(duì)我們來說已經(jīng)再熟悉不過,它還是需要重新開發(fā)。
以上并非我的觀點(diǎn),而是美國馬薩諸塞州劍橋的 MIT-IBM 沃森人工智能實(shí)驗(yàn)室(MIT–IBM Watson AI Lab)主任 David Cox 的觀點(diǎn)。早前, David Cox 是哈佛大學(xué)教授,他的團(tuán)隊(duì)?wèi){著對(duì)神經(jīng)科學(xué)的洞見,建立了一個(gè)受大腦啟發(fā)的機(jī)器學(xué)習(xí)計(jì)算機(jī)系統(tǒng)。目前,在 IBM,他主要負(fù)責(zé)沃森人工智能(Watson A.I.)的相關(guān)事務(wù)。
提到沃森,不了解的人只知道它是人工智能,曾在美國問答節(jié)目《Jeopardy》中一戰(zhàn)成名。但其實(shí),沃森首先是一個(gè)機(jī)器學(xué)習(xí)系統(tǒng),通過大量數(shù)據(jù)而非人為規(guī)則接受訓(xùn)練。
說回主題,在人工智能準(zhǔn)備在未來十年大放異彩的時(shí)候,David Cox 說世界需要重新審視它,這聽起來是有點(diǎn)兒奇怪。畢竟,過去十年可以說是人工智能史上最成功的十年——這十年里,幾乎每周都會(huì)有新突破,沒有任何“人工智能寒冬”的跡象。但這也正是他認(rèn)為人工智能需要改變的原因。
對(duì)此,他的建議是一個(gè)目前還不確定的術(shù)語——“神經(jīng)符號(hào)人工智能”——這也很可能會(huì)成為 20 年代結(jié)束時(shí)大眾熟知的一個(gè)詞。
符號(hào)人工智能的起與落
嚴(yán)格地說,神經(jīng)符號(hào)人工智能不是一種全新的人工智能,而是把建立“會(huì)思考的機(jī)器”的兩種現(xiàn)有的、相互對(duì)抗的方法相結(jié)合。
這個(gè)名字中的“符號(hào)” 指的是創(chuàng)造人工智能的第一種主流方法。從 20 世紀(jì) 50 年代到 80 年代,符號(hào)人工智能是至高無上的。對(duì)于一個(gè)符號(hào)人工智能研究者來講,所謂智能,是建立在人類通過形成內(nèi)在的符號(hào)表征來理解周圍世界的能力之上的。然后,研究者制定規(guī)則處理這些符號(hào)表征,而這些規(guī)則可以通過捕獲日常知識(shí)的方式被形式化。
如果說大腦類似于計(jì)算機(jī),那么不論我們遇到任何情況,都需要運(yùn)行自身的計(jì)算機(jī)程序,因?yàn)槌绦驎?huì)一步步地解釋如何完全基于邏輯來執(zhí)行操作。因此,符號(hào)人工智能研究者認(rèn)為,如果是這樣,他們也能夠發(fā)現(xiàn)那些關(guān)于世界如何組成的相同規(guī)則,然后以算法的形式編碼,以便計(jì)算機(jī)執(zhí)行。
實(shí)際上,符號(hào)人工智能在過去表現(xiàn)不錯(cuò),令人印象深刻。1964 年,計(jì)算機(jī)科學(xué)家 Bertram Raphael 開發(fā)了一個(gè) SIR 系統(tǒng),即“語義信息檢索”(Semantic Information Retrieval)。SIR 是一個(gè)計(jì)算推理系統(tǒng),它似乎能夠以一種類似于真正智能的方式來學(xué)習(xí)對(duì)象之間的關(guān)系。比如,你告訴它一些基礎(chǔ)信息——John 是個(gè)男孩,男孩是人,一個(gè)人有兩只手,一只手有五個(gè)手指。然后你問他 John 有幾根手指,它的答案是 10。
雷鋒網(wǎng)了解到,“專家系統(tǒng)”的基礎(chǔ)堅(jiān)實(shí),但也存在問題:這些系統(tǒng)價(jià)格昂貴,需要不斷更新;而最糟糕的是,規(guī)則越多,系統(tǒng)的準(zhǔn)確性就越低。
神經(jīng)網(wǎng)絡(luò)的世界
那么,我們?cè)賮砜纯瓷窠?jīng)符號(hào)人工智能里的“神經(jīng)”是什么?
實(shí)際上,“神經(jīng)”指的是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),它是受大腦啟發(fā)的計(jì)算類型,驅(qū)動(dòng)了過去十年許多人工智能領(lǐng)域出現(xiàn)的突破——比如人工智能駕駛汽車、把文本翻譯成幾十種不同的語言、智能音箱能夠聽懂指令等等。
【 圖片來源: DIGITAL TRENDS 所有者:DIGITAL TRENDS 】
神經(jīng)網(wǎng)絡(luò)與符號(hào)人工智能的工作方式不同。因?yàn)樯窠?jīng)網(wǎng)絡(luò)由數(shù)據(jù)驅(qū)動(dòng),而非基于規(guī)則。
正如 David Cox 對(duì)《數(shù)字趨勢(shì)》雜志所說:
不可否認(rèn),深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)帶來了驚人的進(jìn)步,但同時(shí)也出現(xiàn)了一些問題,令人擔(dān)憂。
實(shí)際上,David Cox 提到的問題恰恰依賴于讓今天的神經(jīng)網(wǎng)絡(luò)變得如此強(qiáng)大的東西——數(shù)據(jù)。就像人一樣,神經(jīng)網(wǎng)絡(luò)是根據(jù)例子學(xué)習(xí)的。但是,一個(gè)人可能只需根據(jù)一兩個(gè)例子就能正確地記住一件事,但人工智能需要更多例子。同時(shí),準(zhǔn)確性的高低取決于是否具有大量的注釋數(shù)據(jù),因?yàn)閷W(xué)習(xí)每個(gè)新任務(wù)都基于這些數(shù)據(jù)。
燃燒的交通燈
正是因?yàn)樯窠?jīng)網(wǎng)絡(luò)的上述特點(diǎn),它們并不擅長“黑天鵝”問題,由 Nassim Nicholas Taleb 提出的黑天鵝事件在統(tǒng)計(jì)學(xué)上是罕見的。David Cox 表示:
目前許多深度學(xué)習(xí)解決方案盡管非常驚人,但都基于二八定律(雷鋒網(wǎng)注:這一定律認(rèn)為在任何一組東西中,最重要的只占其中一小部分,約 20%,其余 80% 盡管是多數(shù),卻是次要的)。深度學(xué)習(xí)在 80% 的情況下是對(duì)的,但重要的實(shí)際上占少數(shù)。如果你看到一個(gè)物體本不該處于目前所在的位置,或者方向有點(diǎn)奇怪,這種情況下,即便是再驚人的系統(tǒng),也起不了作用。
在加入 IBM 之前,David Cox 與別人共同創(chuàng)辦了 Perceptive Automata 公司,為自動(dòng)駕駛汽車開發(fā)軟件。該團(tuán)隊(duì)在他們名為 Slack 的頻道發(fā)布了數(shù)據(jù)收集過程中偶然發(fā)現(xiàn)的有趣圖片。其中一張照片是在十字路口拍的,照片上的交通燈著火了,對(duì)此 David Cox 表示:
這真是一輩子難遇的事情。我不知道 Waymo 和 Tesla 在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)集中是否有交通燈著火的圖像,但我敢打賭,就算他們有,數(shù)量也會(huì)很少。
其實(shí),這就是一件無關(guān)緊要的事,因?yàn)樗苌侔l(fā)生,即便發(fā)生了,也并不是很緊要。如果系統(tǒng)推薦一個(gè)人去了一家很糟糕的餐廳,這樣自然不太好,但可能還不足以毀掉他的一天,只要系統(tǒng)以前提出的 99 條建議都是不錯(cuò)的,就沒必要特別沮喪。
但是,如果一輛自主駕駛汽車在十字路口面對(duì)燃燒的交通燈或一輛馬車不能做出正確的反應(yīng),后果則不堪設(shè)想。這可能是小概率事件,但我們也希望它能夠很好地應(yīng)對(duì)這類情況。
David Cox 解釋說:
如果有能力推理、判斷,我們就能輕松應(yīng)對(duì)。如果我看到交通燈著火了,我最起碼會(huì)有一些基本判斷,比如目前不能根據(jù)交通燈判斷我是該停還是該走,但我知道要注意安全,因?yàn)橹車乃緳C(jī)也會(huì)感到困惑。但我可以根據(jù)另一個(gè)方向行駛的車輛判斷接下來的行動(dòng)。在這種以安全完成任務(wù)為關(guān)鍵的環(huán)境中,深度學(xué)習(xí)還不能很好地服務(wù)我們。這就是我們需要其他解決方案的原因。
將邏輯與學(xué)習(xí)相結(jié)合
因此 David Cox 便提出了神經(jīng)符號(hào)人工智能的想法。
所謂神經(jīng)符號(hào)人工智能,其實(shí)就是把以上方法結(jié)合起來,把學(xué)習(xí)和邏輯結(jié)合起來。
神經(jīng)網(wǎng)絡(luò)可以幫助符號(hào)人工智能系統(tǒng)變得更聰明——通過將世界分解成符號(hào),而不是依靠人類程序員來為它們做這件事。同時(shí),符號(hào)人工智能算法可以結(jié)合常識(shí)推理和行業(yè)知識(shí),并運(yùn)用到深度學(xué)習(xí)中。這些都會(huì)使人工智能更好地處理從自動(dòng)駕駛汽車到自然語言處理的一切復(fù)雜任務(wù),同時(shí)訓(xùn)練所需的數(shù)據(jù)也要少得多。
David Cox 說:
神經(jīng)網(wǎng)絡(luò)和符號(hào)化的概念之間,存在著非常完美的互補(bǔ)關(guān)系。因?yàn)樯窠?jīng)網(wǎng)絡(luò)可以給你答案,將混亂的現(xiàn)實(shí)世界變成一個(gè)系統(tǒng)性的符號(hào)表征,在圖像中找到所有關(guān)聯(lián)。只要有了這種符號(hào)表征,就能在推理方面有所突破。
同時(shí),這不僅適用一小部分情況,越來越重要的是,人工智能系統(tǒng)在必要時(shí)是可解釋的。神經(jīng)網(wǎng)絡(luò)可以非常好地執(zhí)行某些任務(wù),但它的許多內(nèi)部推理是“黑箱”式的,對(duì)于那些想知道它是如何做出決定的人來說是難以理解的。
同樣,如果一個(gè)機(jī)器人在音樂流媒體平臺(tái) Spotify 上推薦錯(cuò)誤,其實(shí)并不太重要。但是,如果你被拒絕銀行貸款,被拒絕工作申請(qǐng),或者有人在涉及自動(dòng)駕駛汽車的事故中受傷,我們則需要了解為什么人工智能會(huì)提出相關(guān)的建議。這個(gè)時(shí)候神經(jīng)符號(hào)人工智能便能派上用場(chǎng)了。
人工智能研究的未來
幾十年前,符號(hào)人工智能和神經(jīng)網(wǎng)絡(luò)還是完完全全的兩個(gè)世界,相互對(duì)立。人工智能領(lǐng)域的大佬們常常各執(zhí)一詞,在支持一種方法的同時(shí),必將否定另一種方法。實(shí)際上,他們的做法未必不妥,畢竟資金有限,要解決同樣的問題,兩派必定會(huì)競(jìng)爭。而如今看來,情況似乎正好相反。
另外,David Cox 還表示:
看到年輕一代真的很有意思,我團(tuán)隊(duì)中的很多人都比較年輕,有的剛剛博士畢業(yè),對(duì)這個(gè)領(lǐng)域保持著新鮮勁兒和興奮感。他們沒有經(jīng)歷過符號(hào)人工智能和神經(jīng)網(wǎng)絡(luò)相互對(duì)立的時(shí)代,也不在乎二者曾經(jīng)對(duì)立過——其實(shí)這種不在乎就非常好,因?yàn)樗茏屓舜蜷_心扉,消除偏見。他們很樂意探索未知,用人工智能做點(diǎn)很酷的事。
如果一切按計(jì)劃進(jìn)行,所有人都將從中受益。
責(zé)任編輯:Ct
評(píng)論
查看更多