我們都相信,或許未來我們都要以人機協(xié)作的方式生存。傳說中能夠代勞一切的終極算法顯然一時半會兒不會出現(xiàn),但人類和機器人一同勞作已經(jīng)成為可能,人類也會接受越來越多來自于機器提供的服務。
如果說在人機協(xié)作上,AI技術能力的成熟與否是第一前提,那么第二前提就是人類和機器之間的信任關系了。
今天的我們總是在關注第一前提,并且取得突飛猛進的進展,但往往忽略第二前提的重要性。想象一下,要是人類和機器之間無法形成信任關系,人機協(xié)作的未來將會怎樣?
律師所的律師靠AI搜集整理資料,但AI搜集完了以后,律師又不放心,重新把AI助手的工作又檢查一遍,最后其實浪費了更多的時間。而如今廠商們所宣傳的理想中的自動駕駛,是人一上車就躺下休息,而自動駕駛會把乘客安全的送達終點。可如果人類不信任自動駕駛,這一畫面就變成了人類上了車立刻進入緊張狀態(tài),像駕校司機一樣緊盯路況還時不時對AI的駕駛技術表示嫌棄。這樣一來,肯定是有悖于AI提升工作效率的初衷的。就連“網(wǎng)紅機器人”索菲亞都說,為了共建人類和AI之間的信任,應該少拍點機器人與人類為敵的電影。
“不道德”的AI,你能相信嗎?
但首先我們要弄明白一個問題,人類真的會很難和AI建立起信任關系嗎?想想看,我們似乎天生就相信烤箱會把食物加熱而不是讓食物有毒,也相信冰箱會用低溫保存食物而不是讓食物變質。難道到了AI這里就不靈了嗎?
這其中的差異,在于心理學上的“釋義法則”,即人們會更容易信任他們能夠理解其原理的技術。烤箱的高溫、冰箱的低溫,其實都是千百年以來我們非常熟悉的處理食物的方式了。不信換成微波爐,這么多年了還有人質疑它會“輻射”食物。
AI就更是如此,加上神經(jīng)網(wǎng)絡的黑箱特征,人們很難從理解原理這一層面上去信任AI。
同時當AI進入我們生活中的方方面面時,難免會在進行決策時遇到道德問題。最典型的“人行橋困境”就是如此,鐵軌上綁著五個無辜的人,火車即將壓過他們的身體,這時如果把人行橋上的一位大漢推下橋去,就可以阻止火車向前拯救鐵軌上的五個人。那么究竟該不該犧牲一個人的姓名拯救五個人?在現(xiàn)實中雖然不太會出現(xiàn)這種極端情況,但有沒有可能自動駕駛在行駛時為了不發(fā)生剮蹭而碰撞到過路的動物?這時是損害車還是損害路過的小動物,也是一種道德困境。
面對這種狀況,哲學上有一種說法叫“后果論”,即認為計算結果才是做出道德決策的正確途徑,結果收益最高的決策才是最道德決策。同時《實驗心理學月刊》上的研究結果表明,那些通過后果論進行決策的人往往人緣更差,人們會認為他們冷酷、自私、不近人情,因為普通人更愿意遵守代代相傳的道德觀,即使那樣會得出收益不那么高的結果。
但AI的進行的往往都是后果論決策,追求收益而非道德正確。因此研究推斷,未來人類很可能也會對AI做出的決策產(chǎn)生一些質疑。因為人類會默認機器沒有道德感、同理心、同情心這種以往概念里一個好的決策者應有的特質。
AI如何獲取人類信任?
除了套路還是套路
不過現(xiàn)在也有很多研究團隊意識到了這一問題,開始想辦法研究如何建立起人機信任。目前來看,研究方向大概分為兩個角度,一個是從人的角度尋找什么樣的AI才更容易獲得人類的信賴,另一個是從AI的角度去感知和評估人類的信任程度。
MIT曾經(jīng)和新加坡科技設計大學進行過一系列實驗,得出兩個結論,第一是想讓人類信任AI,就需要讓人類“參與”AI訓練的過程;第二人類更希望AI指出問題而不是確認問題。
在第一個實驗中,人們被要求在看過一系列照片后,再在AI的輔助下從一系列圖片庫中選中自己看過的圖片。實驗對象被分為AB兩組,A組被告知AI技術會隨著用戶選擇過程循序漸進提升,用戶決策正確的越多,AI技術也會隨之提升。B組沒有被告知任何信息,實際上兩組AI算法的精準度是一樣的。但實驗結果是,A組實驗對象會更信任AI算法,B組則更信任自己的選擇。
而在第二個實驗中,算法對無人機回傳來的畫面進行圖像識別,A組對象中AI會把畫面中的火災、偷盜、搶劫等等畫面圈出來,B組對象中AI則會把畫面圈出來,并且標注上“火災”、“偷盜”、“搶劫”等等。兩組算法都有同樣的誤差比率,但實驗結果表明A組實驗對象對于AI的信任程度要遠高于B組,畫面檢閱的效率也遠高于B組。因為在人類看來,對于具體情況的判斷失誤是一種非常嚴重的錯誤,代表著算法很不可信,所以他們要把畫面整體都重新細細看一遍,比起A組用戶判斷標注出來畫面的具體情況,要浪費了不少時間。
或許未來AI獲取人類信任也需要一些“套路”,像是假裝需要人類參與訓練,或者刻意把一些工作分擔給人類。
而最近普渡大學械工程學院推出了一項系統(tǒng),通過對膚電測試和腦電波測試采集人們的狀態(tài),推出適用于大眾的“通用信任模型”和個人的“個性化信任模型”。研究者表示AI工具可以和這些信任模型聯(lián)動起來,尤其在兒童教育、老年人看護這些領域,對于人類信任狀態(tài)的感知可以幫助AI更好的服務人類。例如當AI感知到人類的不信任時,可以暫停當下的工作,通過安撫一類的方式提升人類的信任。
人機信任的第一步……
或許是AI打假?
不過在以上提到的幾個實驗中,都出現(xiàn)了一個有趣的共同發(fā)現(xiàn)——人類對AI的信任程度是可以被控制的,AI的表現(xiàn)越差、給用戶造成不好的體驗,人類的信任程度越低——不管是從腦電圖的生理狀況看來還是從行為看來都是如此。
例如讓人乘坐一輛自動駕駛的汽車,如果汽車總是無緣無故的突然剎車,讓人在車中顛簸,人類的信任程度就會快速降低。
那這么看來,真正有害于人機信任的并不是狗血科幻電影,而是那些正洶涌而來的人工智障。或許如今建立人機信任最高效的方法不是別的,而是AI打假。
-
機器人
+關注
關注
211文章
28390瀏覽量
206957 -
AI
+關注
關注
87文章
30763瀏覽量
268917 -
自動駕駛
+關注
關注
784文章
13787瀏覽量
166408
原文標題:“不道德”的AI,你能相信嗎?
文章出處:【微信號:TechSugar,微信公眾號:TechSugar】歡迎添加關注!文章轉載請注明出處。
發(fā)布評論請先 登錄
相關推薦
評論