答案可能比「如何把大象塞進冰箱」還簡單。
文檔軟件開發商 Readme 的創始人 Gregory Koberger 曾經在社交網站上回答過這個問題:
1、請一群領最低工資的人來假裝人工智能 2、等真正的人工智能創造出來
Gregory Koberger 當時之所以這樣說,其實是為了諷刺早前人工智能創業公司 Edison Software 被曝出聘請員工假裝 AI 為客戶提供所謂的「智能郵件回復」服務。
事情過去也快一年了,沒想到這個梗再一次被挖了出來,更沒想到的是,這次諷刺的對象居然還是鼎鼎大名,被給予厚望改變世界的 Google。
Google 也騙人了?
準確來說是 Goolge Duplex 騙人了。
在 2018 年,Google 在 I/O 大會推出了一項人工智能新服務:Google Duplex。這項人工智能服務的用處,簡單來說就可以替你打電話到餐館訂位。
Jimmy Tran 是一家位于加州的泰國餐館的服務員,前些天,他接到了來自 Google Duplex 的訂位電話。
但在交談的過程中,對方濃重的愛爾蘭口音(拜托,能不能走心一點)引起了餐館小哥的懷疑。
餐館小哥也毫不含糊,直接問對方究竟是 AI 還是人,沒想到對方更直接,絲毫不掩飾,直接承認了自己其實是人。
估計餐館小哥內心覺得憋屈:等了這么久,終于等來了 Duplex 的電話,結果你跟我說其實你是個人?于是他找《紐約時報》告狀去了。
《紐約時報》也發現事情并不簡單。于是他們也進行了十次實驗,結果發現,十次當中有四次是成功訂位的,而這四次當中僅有一次是真的通過 AI 來進行訂位的,其余三次其實都是「演員們」的表演。
隨后,Google 也向《紐約時報》承認了此事,并表示 Duplex 所撥出的電話中,有 25% 其實是人類,而在剩下的電話中,也有 15% 進行了部分的人為干預。
顯然,百分比其實并不重要,重要的是有和無。
那么即便神奇如 Google Duplex,也擺脫不了人工干預?
Duplex 神奇的地方,其實用處并不大
其實用「人工」裝「智能」的事也不是第一次出現了。除了文章開頭提到的「偽裝智能回復郵件」事件外,你還記得那個甚至還被授予了沙特國籍的神棍機器人 Sophia 么?
至于這次 Google Duplex 的事情之所以還能引起大家這么大的關注,其實還是因為大家對 Google Duplex 的期望太高了。
一年前,Google Duplex 一出,「Awsome」聲四起。
下面的視頻給沒有看過或者是已經忘了 Google Duplex 是如何訂位的同學了解 / 復習一下。
驚艷的感覺從何而來?你一定會回答:太像人了。
對,太像人了。Google Duplex 甚至還通過了部分的圖靈測試 —— 一個說到 AI 就會想到的測試,就像是 AI 的認證考試一樣。
圖靈測試簡單來說,就是把真人和 AI 都關到「小黑屋」里面,然后在屋外安排另外一個真人輪流與他們對話。如果屋外的人無法辨別出「小黑屋」里到底哪個是真人哪個 AI,那么則會認為這個 AI 通過了圖靈測試。
但是,通過了圖靈測試,就能說明這個 AI 能正常地與人交流了嗎?并不,因為圖靈測試的本質是模仿、是欺騙,這樣就使得 AI 在進行圖靈測試時,遇到理解不了的問題,只要它表現得足夠像人類,就可以通過假裝無知,對問題避而不談來通過測試。
▲圖片來自:Wikipedia
無可否認,在模仿人類這方面,Google Duplex 做得實在太好了,無論是語音語調、各種停頓、語氣詞等的小動作都做得與人幾乎沒什么區別。這也是它通過圖靈測試的資本所在。
但是,即便 Google Duplex 在語音合成上做得再極致,也沒有用,因為人工智能對話系統,關鍵不是在于話說有多像,而是能聽懂話,說對話。就好比唱歌找不著調的人,嗓音再好聽,也于事無補。
能聽懂人話其實才是關鍵
為什么讓 AI 聽懂人話這么難?這得從 AI 到底是怎么理解所聽到的話(NLU 自然語言理解)說起。
包括 Google Duplex 在內的人工智能對話系統,對聽到的每一句話,都會進行拆解,將其分成「意圖」、「實體」以及「廢話」。
例如你說一句:今天天氣真好,我想去廣州塔逛逛,幫我叫個車吧。
在這句話當中「叫車」就是「意圖」、「廣州塔」就是目的地實體,其余就都是廢話了。
▲圖片來自:Boost.ai
那么在這里,第一個問題就出現了。
例如:幫我推薦一家餐廳,不要四川菜。
在這句話當中,意圖很明顯,是「推薦餐廳」但是「四川菜」依舊會被當成實體,「不要」這個重要的關鍵邏輯,則會被當成廢話。
人之所以可以理解這句話,是因為人除了可以提取關鍵詞之外,還可以進行邏輯的識別,而 AI 所缺少后面的這一步,就讓它在進行理解時,腦筋經常轉不過來。
另外,還有一個問題,讓現在的 AI 對話系統,和人類的對話系統有著巨大的差距。
無論你說的是哪種語言,你總有辦法把信息揉進語言里面。
但是作為人類最重要的傳達信息的工具,語言系統卻并沒有我們想象中的那么高效。我們舉個例子。
假設周日晚上你在酒吧認識了個姑娘,她迷人的臉龐加上有趣的靈魂讓你神魂顛倒。即便到了周一早上,你依舊像個花癡一樣,一想起她就傻笑。于是同事就來問你了:吃錯藥了?你回答:我昨晚遇到了一個很棒的姑娘。
那么這個姑娘究竟有多棒?你同事并不會知道。
因為即便你在接下來的一個小時里,用盡各種語言去描述那個姑娘長得怎么樣、不停地復述你們昨天聊的話題究竟多有趣,在你同事的腦海里,依舊無法一比一地把那個女生復刻出來。
比起我們的思維,語言確實很貧瘠,以至于實際上通過語言所傳達的信息,其實或多或少是失真的。
那么為什么人類還可以通過這樣的一個系統,正常傳達信息,并以此建立起延續了七千多年的文明?
這是因為我們解讀能力強。
這就好比我們的主編每天早上見到我說了一句早安后,第二句我都還沒等他開口,就已經知道他想問我稿子寫完沒。
也好比你的同事即便無法在腦海里一比一地把那個姑娘復刻出來,只要他不是從出生開始便一直單身,他都能理解你這種如沐春風的感覺。
這種基于常識、經驗、場景、直覺來解讀語言、獲取信息的能力,正正是目前僅能通過上下文進行意圖及實體提取的 AI 來說,最為缺乏的。
而想要做到十分自然的交流,這種能力必不可缺。
實際上,圖靈測試還有一個升級版:威諾格拉德模式挑戰。這個測試,就是用來檢驗 AI 能否根據常識來解讀語言的。
但可惜的是,目前的人工智能對話系統,在該測試上,都表現得并不樂觀。
其實對于單靠深度學習,能否造出真正的人工智能對話系統,是有學者持懷疑態度的。
深度學習并不像大家想象的那樣,你把這個 AI 造出來,然后他就會自己開始學習。目前的深度學習還停留在監督學習,以及半監督學習狀態。這也就是說必須靠人去「喂」大量的標注數據,讓 AI 的「實體」庫和「意圖」庫豐滿起來,做到無論你是說「我餓了」還是說「我想出去吃飯」AI 都知道需要為你推薦餐廳。
但事實上,即便這個庫再大,上面兩個問題其實都很難解決。
心理學家認為人的大腦有兩個系統,系統一負責處理靠直覺、習慣就能完成的事情。而系統二所負責的事情則需要通過思考來完成。
專注于人工神經網絡以及深度學習的計算機學家約書亞?班吉歐認為,語言是靠系統二來處理的,但是基于深度學習的人工智能,實際上更像是系統一。
當然,這里并不是在傳達什么「深度學習無用論」,因為也有另外一種觀點認為,人本身就是一種數據庫,所有經驗、常識甚至是直覺其實都可以被量化。只要解決這個統計上的問題,真正的人工智能對話系統依舊有望可以通過深度學習去達成。更何況,即便是需要重新找另外一條路,深度學習依舊會有它的一席之位,畢竟任何一種發明的誕生,其實都是多種技術的結合。
但無論是推倒重來,還是繼續往深度學習的方向發展,想見到能夠真正能夠自然交流,而且不是朝九晚五的人工智能對話系統,可能還需要走很長的一段路才行。
-
Google
+關注
關注
5文章
1766瀏覽量
57596 -
人工智能
+關注
關注
1792文章
47377瀏覽量
238878
原文標題:Google 人工智能,掀開蓋子里面竟然有個活人!
文章出處:【微信號:ifanr,微信公眾號:愛范兒】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論