2018年12月18日,歐盟人工智能高級別專家組發布了一份人工智能道德準則草案。在許多人擔憂人工智能取代人類、破壞倫理的大背景下,該草案旨在指導人們制造一種“可信賴的人工智能”。如何才能讓機器人更令人信賴?可否賦予它們道德修養呢?就此話題,作者采訪了美國匹茲堡大學科學哲學和科學史系杰出教授、西安交通大學長江講座教授科林·艾倫。
問:什么是人工智能的“道德”?
艾倫:人工智能的“道德”,或者說“道德機器”“機器道德”,有很多不同的含義。我將這些含義歸為3種。第一種含義中,機器應具有與人類完全相同的道德能力。第二種含義中,機器不用完全具備人類的能力,但它們對道德相關的事實應該具有敏感性,并且能依據事實進行自主決策。第三種含義則是說,機器設計者會在最低層面上考慮機器的道德,但是并沒有賦予機器人關注道德事實并做出決策的能力。
就目前而言,第一種含義所設想的機器仍是一個科學幻想。所以,我在《道德機器》一書中略過了對它的探討,而更有興趣探討那些介乎第二、第三種意義之間的機器。當下,我們希望設計者在設計機器人時能夠考慮道德因素。這是因為,在沒有人類直接監督的情況下,機器人可能將在公共領域承擔越來越多的工作。這是我們第一次創造可以無監督地運行的機器,這也是人工智能倫理問題與以往一些科技倫理問題之間最本質的區別。在這樣的“無監督”情境中,我們希望機器能夠做出更道德的決策,希望對機器的設計不僅僅要著眼于安全性,更要關注人類在乎的價值問題。
問:如何讓人工智能具有道德?
艾倫:首先要說的是,人類自己還不是完全道德的,將一個人培養成有道德的人可不是一件容易的事。人類的本質都是出于利己主義做事,而不考慮他人的需求和利益。然而,一個道德的智能體必須學會克制自己的欲望以方便他人。我們現在構建的機器人,其實并不具有自己的欲望,也沒有自己的動機,因為它們沒有自私的利益。所以,訓練人工智能和訓練人的道德是有很大差異的。對機器的訓練問題在于,我們怎樣才能賦予機器一種能力,讓它敏感地察覺到哪些對人類的道德價值觀而言是重要的事情。此外,機器需要認識到它的行為會對人類造成痛苦嗎?我認為是需要的。我們可以考慮通過編程,使機器按照這種方式行事,且無需考慮怎么讓機器人優先考慮他者利益,畢竟目前的機器還不擁有利己的本能。
問:發展人工智能的道德應采用怎樣的模式?
艾倫:我們曾在《道德機器》中討論了機器道德發展模式,認為“自上而下”和“自下而上”相混合的模式是最佳答案。首先談一談“自上而下”和“自下而上”意味著什么。我們以兩種不同的方式使用這兩個術語。一個是工程的視角,也就是一些技術和計算機科學的視角,例如機器學習和人工進化,而另一個則是倫理學視角。機器學習和人工進化并不從任何原則開始,它們只是試圖使機器符合特定類型的行為描述,并且在給定輸入使機器以這種方式行事時,它的行為能夠符合特定類型,這叫“自下而上”。與之相比,“自上而下”的方法則意味著一個清晰的、將規則賦予決策過程的模式,并且試圖寫出規則來指導機器學習。我們可以說,在工程領域中,“自下向上”是從數據當中學習經驗,而“自上向下”則是用確定的規則進行預編程。
在一些倫理學領域也有這種“上下之別”,比如康德,還有更早的功利主義學派,如邊沁和密爾,他們就更像是“自上而下”。這些學者試圖制定規則以及普遍原則,以便通過這些“條條框框”判斷出一個行為是不是道德的。這樣對康德的道德律令而言,其涵義就包含著多項具體規則,例如“不撒謊”。
亞里士多德對于道德持有相當不同的觀點。他認為,道德應當是一個人通過訓練而習得的。因此,亞里士多德的觀點就更傾向于一種“自下向上”的方法,這種方法就是一個人通過練習變得好、善良、勇敢。當踐行道德的時候,我們就稱之為美德倫理。通過這樣做,一個人會變得更具美德、會有更好的行為。
我認為亞里士多德的看法更正確。因為人類并不是靠“瞎碰瞎撞”去養成習慣的,也會對習慣進行思考,并思考需要哪些原則。亞里士多德注意到,在原則灌輸和習慣訓練之間存在著一種相互作用。我們認為,這種途徑同樣也適用于人工道德智能體的構建。在很多實時決策的情境下,我們并沒有足夠的時間來反思行為背后的理論或原則含義。但是,我們還可以從錯誤中學習,因為可以使用這些“自上向下”的原則重新評估我們所做的事情,之后再進行調整和重新訓練。
這就是混合方法的基本思路,我認為它確實符合人類的情形。舉個例子,當你還是個孩童時,你對兄弟姐妹做了什么不好的事情,父母會說“如果這種事情發生在你身上,你會有何感受呢”,是吧?在許多道德傳統中都有這樣一種原則:“以你自己對待自己的方式,或是你希望被別人對待的方式去對待他人”,有時人們也稱這一原則為黃金法則。所以,你不僅僅被告知不要那樣做,也并不僅僅因此而受罰,實際上你會被告知去思考這樣做為何是好的或不好的,這就是“自上而下”與“自下而上”的結合。
問:應該限制人工智能的發展嗎?
艾倫:我認為這取決于應用領域。我現在并不擔心機器人或人工智能會取代人類,如果情況變得危險,我們是有能力去阻止它的。比如說突然發現機器人可以生產機器人,我們要做的無非就是切斷電源。
當然,確實存在一些應當停止人工智能應用的地方,其中一個就是人們正致力開發的軍事領域。從人類的歷史來看,一旦有人構想出一個武器,那將很難阻止另一些人的欲望及其為之奮斗的野心。核武器和無人機就是很好的例子。
但是,我不認為應該阻止其他形式的人工智能發展。我們需要思考技術對生活帶來了怎樣的后果,比如說,自動駕駛汽車會使行人過馬路更困難,還是更加容易呢?自動駕駛汽車面臨行人過馬路的情形時應附加什么樣的權限呢?無人車看到行人能不能安全停下,還是說它像人類司機一樣,依然有可能撞到行人?這些都是我們需要對人工智能進行思考的問題。無人駕駛汽車不僅不該停止發展,而是應該投入更多。
問:機器人會變得更好還是更危險?
艾倫:過去10年來,人工智能在某些方面的飛速發展令人吃驚,但算不上滿意。在我看來,未來10年內無人駕駛汽車投放到真實路況中的可能性不大。蘋果公司推出了一個可以交談的智能體Siri,但以現在的情形來看,Siri很糟糕不是嗎?所有我使用過的類似產品,諸如Alexa,GoogleTalk,都不盡人意。所以我現在不會從倫理的視角對人工智能的發展過于擔心。這些企業居然真的發布了這些產品,但更令我驚奇的是,人們居然在很大程度上調整自身行為以適應人工智能,因為你知道把Siri當成正常人來交談的話,它永遠不會明白你的意思。人類在做出調整,并非機器,因為機器并不是一個自適應的系統。或者說,它比人類具有更弱的適應性。這是最令我擔心的。
當然,我所擔心的并不是機器做的事情超出人類的預想,而是它們可能改變并限制我們的行為。AlphaGo贏了圍棋,但并未改變我們的日常生活,所以沒什么好擔心的。我擔心人們用愚笨的方式與機器交談,以便機器按照我們的想法做事。要知道,這具有許多潛在的危險。它潛移默化改變我們的習慣行為,使我們對某些類型的錯誤更具容忍性而對有些錯誤卻更加苛刻。人們會預料到并且能容忍人類所犯的道德錯誤,但是,人類可能不會容忍這樣的錯誤在機器上發生。經過規劃考慮后仍對他人造成傷害的決定如果發生在機器上,會比發生在人類身上更不能令人容忍。在過去10年內,這種改變已經發生了。即使軟件會變得更好,機器也會變得更好,但是永遠都存在著讓人類去適應機器而非真正提高人類能力的危險。
-
機器人
+關注
關注
211文章
28414瀏覽量
207041 -
人工智能
+關注
關注
1791文章
47258瀏覽量
238415
原文標題:人類能造出有道德的機器人嗎?
文章出處:【微信號:jingzhenglizixun,微信公眾號:機器人博覽】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論