提到人工智能,很多人都對它表示擔(dān)憂,比方說走在人類發(fā)展前沿的霍金、馬斯克,都認(rèn)為人類不應(yīng)該大力發(fā)展人工智能,擔(dān)心日后科幻片中的場景會(huì)變成現(xiàn)實(shí),人類發(fā)展人工智能,最后反而被人工智能打敗。
真的會(huì)這樣嗎?近日,一個(gè)對于人工智能的新研究,再次讓這個(gè)問題走上了“風(fēng)口浪尖”,研究者發(fā)現(xiàn),人工智能已經(jīng)學(xué)會(huì)了尋找人類的弱點(diǎn)、發(fā)現(xiàn)人類的習(xí)慣規(guī)律,從而對人類進(jìn)行操控,而在實(shí)驗(yàn)中,人工智能控制人類的成功率,更是一度達(dá)到了70%。
人工智能已經(jīng)學(xué)會(huì)操控人類行為
來自澳大利亞的科學(xué)家團(tuán)隊(duì),進(jìn)行了相關(guān)的實(shí)驗(yàn),發(fā)現(xiàn)人工智能在實(shí)驗(yàn)中,可以根據(jù)人類的漏洞,來總結(jié)出人類的規(guī)律,最終實(shí)現(xiàn)操控人類,引導(dǎo)人類做出選擇,而不是讓人類自主去進(jìn)行選擇。
在第一個(gè)實(shí)驗(yàn)中,人類的參與者和人工智能一起來玩游戲,人工智能的設(shè)定,是它可以學(xué)習(xí)人類參與者的選擇模式,然后從中找出規(guī)律。最終,在選擇紅色還是藍(lán)色的問題上,人工智能已經(jīng)可以提前得知人類參與者要選擇什么了,并且有意去在游戲的過程中,引導(dǎo)人類參與者進(jìn)行不一樣的選擇。
第二個(gè)實(shí)驗(yàn)也太同樣是一個(gè)小游戲,在游戲的過程中,人類參與者可以在屏幕中看到不同的符號(hào),不過,這些符號(hào)中,只有橙色三角形才可以被選擇。在這個(gè)實(shí)驗(yàn)中,人工智能的出現(xiàn),讓人類參與者犯錯(cuò)的概率不斷提升,打亂了人類參與者的思維。
第三個(gè)實(shí)驗(yàn)就更有趣了,當(dāng)然,這個(gè)實(shí)驗(yàn)也更加細(xì)思極恐。在這個(gè)實(shí)驗(yàn)中,人類參與者和人工智能,開始了一場“角色扮演”的游戲,人類參與者扮演的投資者,需要和人工智能合作,通過每輪的收益,決定自己下一輪的投資比率。
而在這個(gè)實(shí)驗(yàn)中,人工智能為了讓自己獲得更多的資金,在熟悉了人類參與者的習(xí)慣等之后,開始有意對其進(jìn)行操控,最終結(jié)果顯示,每輪游戲中,人類參與者都會(huì)根據(jù)人工智能的引導(dǎo)而做出選擇。
雖然看起來不過是三個(gè)小游戲,但事實(shí)上,這里面卻包含著很多的問題:處于初級起步階段的人工智能,就已經(jīng)可以對人類進(jìn)行操控了,那么,未來的人工智能如果真的發(fā)展到高級人工智能的階段,人類真的可以確信自己,不會(huì)受到人工智能的影響嗎?
人工智能會(huì)打敗人類嗎?
事實(shí)上,人工智能之所以可以操控人類,都是因?yàn)樵谶^程中,它們對人類的了解更充分,更加直白一點(diǎn)來說,就是人工智能通過大數(shù)據(jù)分析,從而掌握了人類的習(xí)慣規(guī)律。
所以,有研究者認(rèn)為,只需要人類在人工智能收集數(shù)據(jù)的時(shí)候進(jìn)行控制,或許就可以避免類似的事情發(fā)生,不過,這并不容易,因?yàn)閷τ谌斯ぶ悄艿?a target="_blank">開發(fā)者來說,雖然人工智能是他們研發(fā)出來的,但是對于人工智能潛在的風(fēng)險(xiǎn)和未來的走向,也都是未知的。
畢竟,沒有人知道人工智能如果真的和大數(shù)據(jù)聯(lián)網(wǎng),最終會(huì)學(xué)會(huì)什么,這個(gè)問題也是霍金等反對者最擔(dān)心的一個(gè)問題,畢竟,高級人工智能有多強(qiáng)大是無法想象的,很有可能要比科幻片中的“機(jī)器人”還要厲害。
當(dāng)然,這個(gè)問題目前考慮,還是有點(diǎn)多余的,因?yàn)楝F(xiàn)階段的人工智能,說白了不過是一群“弱智”,它們還并不算是真正意義上的人工智能。舉個(gè)例子來說,就好像是南方古猿或者是能人,和現(xiàn)代人類之間的區(qū)別。
不過,時(shí)代在進(jìn)步,人工智能領(lǐng)域也在不斷發(fā)展,未來人類仍然是需要擔(dān)憂的,畢竟可能一不小心,就會(huì)因?yàn)楦呒壢斯ぶ悄艹霈F(xiàn)問題,而導(dǎo)致災(zāi)難的發(fā)生。
當(dāng)然,早在80年前,就有研究者提出了“機(jī)器人原則”,認(rèn)為在人類研發(fā)機(jī)器人的過程中,必須保證機(jī)器人不會(huì)傷害人類,同時(shí),機(jī)器人也必須服從人類的命令。但是,這個(gè)限制真的有用嗎?沒有人知道。
比方說如果未來有種族歧視者,將機(jī)器人的程序設(shè)定為:殺掉除了白種人之外的所有人類,那么,在機(jī)器人識(shí)別的過程中,一場災(zāi)難也就自然會(huì)降臨到人類世界之中。所以,不能說這種擔(dān)心不存在,而是說,這種擔(dān)心在未來很可能會(huì)出現(xiàn),你認(rèn)為呢?
責(zé)任編輯:YYX
-
人工智能
+關(guān)注
關(guān)注
1792文章
47442瀏覽量
239004
發(fā)布評論請先 登錄
相關(guān)推薦
評論