隨著人工智能技術(shù)的日新月異,機器人已經(jīng)逐漸融入到我們的生活。從快餐廳的自助點餐設(shè)備到家用的掃地機器人,再到自動駕駛汽車,機器人正以各種各樣的形態(tài)存在于我們的日常生活與工作當(dāng)中。那么對于這些逐漸融入到我們生活的機器人來說,阿西莫夫著名的機器人三定律是否適用呢?
人工智能的進步不斷推動機器人廣泛應(yīng)用于我們的日常生活。曾經(jīng)看起來非常昂貴,只能用于重型制造業(yè)的機器人,已經(jīng)逐漸向低成本和小型化演變。雖然我們還沒有打造出夢想的那種管家式機器人來照顧我們的日常生活,但家用的真空吸塵器事實上就可以看作是一種機器人。
阿西莫夫的機器人三定律
關(guān)于機器人,很多人都聽說過作家艾薩克?阿西莫夫的機器人三定律。他的科幻小說《Runaround》于1942年出版后,人們對這個傳奇定律的興趣和熱情似乎就變得勢不可擋。
機器人三定律源于阿西莫夫的科幻小說。
阿西莫夫的三定律是這樣規(guī)定的:
1、機器人不得傷害人類,或坐視人類受到傷害;
2、機器人必須服從人類給它的命令,除非這些命令與第一定律相沖突;
3、在不違背第一定律或第二定律的前提下,機器人必須保護自己的存在。
后來,阿西莫夫加入了一條新定律“第零定律”,該定律規(guī)定“機器人不得傷害人類整體,或因不作為使人類整體受到傷害。”
三定律未來或可編入真正的法律當(dāng)中
雖然阿西莫夫提出了這些定律,但它們并非真正的法律。這些定律都是人為制定的,而人類可以自由支配。我們既可以遵守,也可以完全無視,選擇權(quán)完全在我們自己。
法律其實是人類建立的規(guī)章制度。從這一點來說,阿西莫夫提出的機器人三定律或許應(yīng)當(dāng)寫入到我們的法律當(dāng)中,因為在未來某個時期,機器人很可能將和我們一起游走在街頭。而且這種做法是明智的。
無論機器人以何種形態(tài)出現(xiàn),三定律都適用
當(dāng)提到阿西莫夫的機器人三定律時,人們可能會想用機器“人”這個詞來代替人工智能。因為你可能會狹義的認為,好像它們只適用于一個碰巧長得像人類的機器人,有腿、有胳膊、還有頭和身體等等。但并不是所有的機器人都必須這樣設(shè)計。
未來的機器人可以是任何形狀。
一些最新的機器人看起來更像動物。也許你已經(jīng)看過一些流行的網(wǎng)絡(luò)視頻,視頻里的機器人有的看起來像狗,甚至還有昆蟲機器人。它們看起來有點嚇人,但卻可以幫助我們弄清如何利用機器人實現(xiàn)各種可能性。
機器人設(shè)計并不一定要有生物學(xué)上的靈感,比如自動真空吸塵器看起來并不像任何常見的動物或昆蟲。完全可以預(yù)料到,未來會有各種各樣的機器人問世,而且似乎并不僅僅基于生物。
無論我們將打造什么樣子的機器人,阿西莫夫三定律非常有用。這可能有點牽強,但真空吸塵器真的可以作為遵守三定律的候選人。當(dāng)然,你家里的吸塵器“機器人”不會試圖傷害你,而是應(yīng)該盡其所能避免這樣做。
有些機器人已經(jīng)出現(xiàn)在我們眼前,但我們可能不會認為它們是機器人。基于人工智能的自動駕駛汽車就是一個例子。
自動駕駛系統(tǒng)與機器人駕駛員
由人工智能系統(tǒng)駕駛的汽車可以說是一種機器人。而你可能不認同它們的機器人身份,原因是它沒有一個會走路、會說話的機器人坐在駕駛員的座位上。負責(zé)駕駛的電腦系統(tǒng)隱藏在汽車底盤或后備箱里,盡管它確實是機器人,但其真實身份似乎也常被人們忽視。
自動駕駛汽車已經(jīng)開始上路測試。
令人鼓舞的是,科學(xué)家們正在努力創(chuàng)造能夠行走和說話的機器人,它們將能夠駕駛汽車。想象一下它們將給我們的世界帶來什么樣的改變。
目前,自動駕駛汽車都是汽車改裝而成的。如果我們制造出的機器人可以駕駛汽車,這將意味著所有現(xiàn)有的汽車基本上都可以被視為自動駕駛汽車。我們沒有必要因為自動駕駛汽車的到來而拋棄傳統(tǒng)汽車,也沒有必要設(shè)計一種全自動駕駛汽車,那些行走的機器人可以充當(dāng)我們的司機。
目前,最快捷的自動駕駛汽車打造方式是將機器人內(nèi)置到汽車中。有人認為,這些新興的自動駕駛汽車將不可避免地被那些會走路會說話的機器人取代。也就是說,今天的自動駕駛汽車將會過時,再次讓位于傳統(tǒng)的駕駛控制方式,也會是說最終汽車要么由人類駕駛,要么由機器人駕駛。
另外,也有人希望,當(dāng)我們在自動駕駛汽車領(lǐng)域已經(jīng)走得足夠遠,不會再使用獨立的機器人來駕駛汽車。
從邏輯上來看一下問題所在
如果機器人駕駛員控制方向盤,這意味著傳統(tǒng)的駕駛控制仍然會保留。這也意味著,只要人們愿意他們?nèi)匀荒軌蝰{駛汽車。但人們相信,無論是內(nèi)置駕駛系統(tǒng)還是能走路的機器人,人工智能都將成為更好的司機,能夠減少酒駕和其它不良駕駛行為。事實上,一輛真正的自動駕駛汽車不會有任何駕駛控制功能,這可能會讓獨立的機器人以及人類無法駕駛汽車。
未來獨立的機器人或許能夠成為人類的駕駛員。
人們或許會產(chǎn)生這樣一種想法:世界將完全轉(zhuǎn)向真正的自動駕駛汽車。盡管一個能走路、會說話的駕駛機器人也可能成真,但也許自動駕駛技術(shù)的發(fā)展會讓人不愿讓時間倒流,也不愿重新推出傳統(tǒng)汽車。這種想法似乎有點一廂情愿,但不管怎樣,自動駕駛的核心似乎都是把人類駕駛員排除在外。
這就引出了另一個關(guān)鍵的、有時卻被忽視的關(guān)于機器人的觀點,即它們可以被置于涉及生死活動的位置。你的家用真空吸塵器機器人不太可能成為生死攸關(guān)的決策者。但是,一輛內(nèi)置人工智能駕駛系統(tǒng)的自動駕駛汽車,甚至一個機器人司機,無疑將處于決定人類生死命運的位置。
當(dāng)你每天開車的時候,不管你是否意識到,你都是一個生死攸關(guān)的決策者。如果方向盤控制得不好,你可能喪命,也可能導(dǎo)致他人死亡。這看起來雖然相當(dāng)悲觀,但也是需要強調(diào)的嚴(yán)酷現(xiàn)實。當(dāng)新手司機駕駛汽車的瞬間,生死的擔(dān)憂就會突然變得相當(dāng)明顯。
既然這關(guān)系到生死存亡,我們應(yīng)該考慮將阿西莫夫的三條定律應(yīng)用到自動駕駛汽車的使用中。因此我們就有了一個有趣的問題:阿西莫夫機器人三定律是否適用于基于人工智能的真正的自動駕駛汽車?如果適用,我們應(yīng)該做些什么?
了解自動駕駛汽車的等級
需要澄清的是,真正的自動駕駛汽車是指人工智能完全獨立駕駛汽車,在駕駛過程中沒有任何人工輔助。這些無人駕駛汽車被認為是4級和5級,而一輛需要人類駕駛員共同駕駛的汽車通常被認為是2級或3級。后者被描述為半自動駕駛,通常包含各種自動附加組件,稱為ADAS(高級駕駛輔助系統(tǒng))。
目前還沒有真正的5級自動駕駛汽車,我們甚至不知道這是否有可能實現(xiàn),也不知道需要多長時間才能實現(xiàn)。與此同時,4級自動駕駛汽車已經(jīng)逐漸得到一些機會在非常狹窄的特定公共道路上試驗。但是人們對于這種測試是否應(yīng)該進行頗具爭論。
真正的5級全自動駕駛汽車尚未問世。
對于半自動駕駛汽車,公眾需要警惕的是最近出現(xiàn)的一個令人不安的問題。部分司機拍攝了自己在駕駛2級或3級汽車時睡覺的視頻。我們都需要避免被誤導(dǎo),認為司機在駕駛半自動汽車時可以分散他們的注意力。無論2級或3級的自動化程度如何,你都要為車輛的駕駛行為負責(zé)。
自動駕駛汽車和阿西莫夫的三定律
對于4級和5級真正的自動駕駛汽車來說,駕駛過程中不會有人類駕駛員參與。所有的人類都是乘客,全程由人工智能系統(tǒng)進行駕駛。讓我們簡要地看看阿西莫夫的三條定律,看看它們?nèi)绾芜m用于真正的自動駕駛汽車。
第一定律:有挑戰(zhàn)性!
首先,第一條定律規(guī)定,機器人(或者說人工智能系統(tǒng))不得傷害人類,無論是通過公開行為還是不作為。當(dāng)它們操控方向盤的時候,這是一個很高的要求。為什么呢?
當(dāng)自動駕駛汽車在街道上行駛,它會對周圍環(huán)境進行積極的探測。但是當(dāng)一個小孩站在兩輛停著的汽車之間時,由于超出了自動駕駛汽車的感應(yīng)范圍,它是看不到的。當(dāng)汽車正在以規(guī)定的速度行駛時,或許會遭遇孩子突然走上街道的情況。
有人認為,自動駕駛汽車永遠不會撞上人,因為人工智能擁有最先進的感知能力,不會成為醉酒司機。不幸的是,在剛剛設(shè)想的那種情況下,自動駕駛汽車必定會撞到那個孩子。之所以這么說,是因為任何人工智能驅(qū)動系統(tǒng)都逃不開物理定律。
如果孩子突然冒了出來,而且距離移動的汽車15英尺(約4.5米),而自動駕駛汽車以每小時30英里(48公里每小時)的速度行駛時,它的剎車距離約為50至75英尺(15至23米),這意味著孩子很容易被撞到。
這意味著人工智能駕駛系統(tǒng)剛剛違反了阿西莫夫的第一條定律。人工智能傷害了人,但是需要保證人工智能系統(tǒng)確實會觸發(fā)自動駕駛汽車的剎車,并盡其所能避免撞到孩子。盡管如此,人工智能系統(tǒng)沒有足夠的時間和距離去避免這種碰撞。
自動駕駛汽車并非不會出現(xiàn)碰撞。
既然我們已經(jīng)證明了嚴(yán)格遵守阿西莫夫的第一條定律是不可能的,那么你至少可以假設(shè),人工智能駕駛系統(tǒng)試圖遵守這條定律。通過剎車,人工智能駕駛系統(tǒng)似乎試圖避免撞擊兒童,而且如果汽車在撞擊時幾乎停下來,其結(jié)果可能不會那么嚴(yán)重。
那么,第一定律還規(guī)定了不應(yīng)該有任何不作為導(dǎo)致對人類的傷害。有人認為,如果自動駕駛汽車不試圖停下來,這種不作為可能就屬于這一范疇,也就是說,它再次未能遵守定律。我們可以做一點別的假設(shè)。假設(shè)人工智能駕駛系統(tǒng)能夠讓汽車轉(zhuǎn)向,從而避免撞到孩子,但是自動駕駛汽車卻撞上了一棵樹,導(dǎo)致車?yán)锏囊晃怀丝团瞬弊印?/p>
雖然孩子得救了,但是自動駕駛汽車?yán)锏某丝褪芰藗D憧梢钥紤]一下,拯救孩子與傷害乘客的結(jié)果相比是否值得。此外,你還可以考慮人工智能是否未能采取適當(dāng)措施,避免對乘客造成傷害。這種道德困境非常適用于自動駕駛汽車,隨著自動駕駛汽車的不斷出現(xiàn),應(yīng)該得到更多的關(guān)注。
總而言之,阿西莫夫三定律中的第一條,對于基于人工智能的全自動駕駛汽車來說,是一個極具挑戰(zhàn)性的目標(biāo)。盡管實現(xiàn)這一目標(biāo)將非常困難,但它可能是我們必須要解決的難題。
第二定律:人類命令如何不盲從?
阿西莫夫定律的第二條規(guī)定,機器人或者說這種人工智能的驅(qū)動系統(tǒng)應(yīng)該服從人類給它的命令,除非人類發(fā)出的命令與第一條定律沖突。這似乎很簡單,也很令人愉快。但這條定律也有它的問題。
曾經(jīng)有一篇文章報道了一個男人用車碾壓一個在橋上隨意開槍殺人的槍手的故事。司機阻止了槍手的惡行,這是一種英雄行為。
如果阿西莫夫第二定律被編程到自動駕駛汽車的人工智能駕駛系統(tǒng)中,假設(shè)一名乘客命令人工智能碾壓槍手,人工智能大概會拒絕這么做。這是顯而易見的,因為這條指令會傷害人類。但是,這個案例似乎推翻了我們一貫堅持的慣例。簡言之,認為第二條定律應(yīng)該得到執(zhí)行需要有根據(jù),否則就意味著在那些罕見的情況下,它會因不作為而導(dǎo)致人類受到傷害。
問題是,讓人工智能駕駛系統(tǒng)毫無疑問的服從乘客也是不切實際的。如果自動駕駛汽車的乘客告訴人工智能把車開到人行道上。而此時人行道上沒有行人,因此不會有人會受傷。那么,人工智能駕駛系統(tǒng)是否應(yīng)該服從人類發(fā)出的這種命令?
人工智能系統(tǒng)不會盲從乘客的命令。
人工智能當(dāng)然不應(yīng)該這樣做,我們最終將不得不解決這個問題,讓人工智能駕駛系統(tǒng)能夠判斷人類乘客的的哪些命令可以順從哪些命令需要拒絕。
第三定律:如何保護自己?
阿西莫夫提出的第三條定律是,只要第一條和第二條定律沒有被推翻,機器人或說人工智能的驅(qū)動系統(tǒng)必須保護自己的存在。那么無人駕駛汽車是否應(yīng)該試圖保護自身?
有人認為自動駕駛汽車將有大約4年的壽命,最終在短短4年的駕駛時間里就會嚴(yán)重磨損。這似乎很令人驚訝,因為我們預(yù)計汽車的運行時間會更長,但自動駕駛汽車的區(qū)別在于,它們的運行時間接近24小時,行駛里程也比傳統(tǒng)汽車長得多。
那么,假設(shè)一輛自動駕駛汽車正接近它的壽命終點。該車將自動行駛到垃圾堆進行回收利用。人工智能駕駛系統(tǒng)可能會決定不去回收中心,從而試圖保護自己,這可以接受嗎?如果有人讓它去那里,那么按照第二定律,自動駕駛汽車就必須遵守。
最終的結(jié)論
基于上述邏輯,我們對阿西莫夫的三條定律在自動駕駛汽車上的應(yīng)用不得不有所保留。人工智能駕駛系統(tǒng)可以根據(jù)這些定律來設(shè)計,將其作為總體架構(gòu)的一部分,但這些定律是一種愿望,而不是不可改變的法則。
在自動駕駛汽車常態(tài)化之前,我們必須解決其中的道德困境。
開車存在一個巨大的道德困境,人們往往認為這是必然的。我們需要弄清楚人工智能駕駛系統(tǒng)將如何做出生死抉擇。而且這必須在我們讓自動駕駛汽車充斥我們的街道之前完成。
大約80年前,阿西莫夫曾說過:“現(xiàn)在生活中最悲哀的方面是,科學(xué)積累知識的速度快于社會積累智慧的速度。”但這句話非常值得我們回味。
責(zé)任編輯:PSY
-
機器人
+關(guān)注
關(guān)注
211文章
28390瀏覽量
206956 -
定律
+關(guān)注
關(guān)注
0文章
9瀏覽量
9354 -
自動駕駛
+關(guān)注
關(guān)注
784文章
13787瀏覽量
166406
發(fā)布評論請先 登錄
相關(guān)推薦
評論