北京大學(xué)哲學(xué)系副主任劉哲認(rèn)為,具有完全自主性的人工智能和機(jī)器人產(chǎn)品暫時(shí)不會(huì)出現(xiàn),但仍應(yīng)盡快加快我國(guó)的倫理監(jiān)管工作,協(xié)調(diào)并進(jìn)人工智能和機(jī)器人的倫理標(biāo)準(zhǔn)制訂。
倫理研究嵌入技術(shù)設(shè)計(jì)之初
受國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)和國(guó)家機(jī)器人標(biāo)準(zhǔn)化總體組委托,我主持了《中國(guó)機(jī)器人倫理標(biāo)準(zhǔn)化白皮書2018》的制訂工作。在研究過程中,我注意到其他國(guó)家(例如英、美、日等國(guó))出臺(tái)的機(jī)構(gòu)白皮書以及相關(guān)政府報(bào)告中,人工智能和機(jī)器人并不判然分離。在我國(guó)相關(guān)倫理標(biāo)準(zhǔn)規(guī)劃中,這兩個(gè)領(lǐng)域倫理標(biāo)準(zhǔn)工作則是分別進(jìn)行的。由于這兩個(gè)領(lǐng)域倫理問題交集很多,我建議人工智能和機(jī)器人倫理標(biāo)準(zhǔn)工作能夠協(xié)調(diào)合作進(jìn)行,希望能夠達(dá)成共識(shí)。
在人工智能和機(jī)器人倫理標(biāo)準(zhǔn)方面,我國(guó)的研究現(xiàn)狀相對(duì)其他國(guó)家,包括日本、韓國(guó)在內(nèi),有一定程度滯后。國(guó)際社會(huì)對(duì)中國(guó)相關(guān)科技發(fā)展缺乏倫理監(jiān)管的詬病非常不利于我們的技術(shù)發(fā)展。我們可以仔細(xì)想想,在過去幾十年的經(jīng)濟(jì)高速發(fā)展過程中,倫理和社會(huì)價(jià)值驅(qū)動(dòng)并不是經(jīng)濟(jì)發(fā)展的根本增長(zhǎng)模式。現(xiàn)在,當(dāng)我們走到以硬科技作為平臺(tái)來推動(dòng)經(jīng)濟(jì)發(fā)展的階段時(shí),我們已經(jīng)繞不開對(duì)倫理和社會(huì)價(jià)值驅(qū)動(dòng)的研究。這些技術(shù)無論是在工業(yè)、民用、還是軍事領(lǐng)域的使用,都涉及太多關(guān)于人的價(jià)值以及社會(huì)價(jià)值的問題。
之前我在參加一些座談時(shí),有個(gè)直觀感受,即很多人傾向于把人工智能和機(jī)器人的監(jiān)管治理委托給法律。然而,目前人工智能的概念還很模糊,包括產(chǎn)業(yè)的發(fā)展方向、技術(shù)發(fā)展的突破口都相當(dāng)開放,沒人可以準(zhǔn)確預(yù)測(cè)下一步會(huì)發(fā)展成什么樣。在這些新興科技自身尚未獲得充分認(rèn)知,對(duì)個(gè)人和社會(huì)的沖擊尚未成型的時(shí)候,討論怎么立法,靠什么法律監(jiān)管,這是根本無法做到的。法律規(guī)制具有一定的保守性,當(dāng)人工智能和機(jī)器人帶來的現(xiàn)實(shí)問題還未出現(xiàn)的時(shí)候,是很難從法律方面進(jìn)行監(jiān)管的。從技術(shù)發(fā)展角度來說,當(dāng)其引發(fā)的問題還沒有出現(xiàn)的時(shí)候就立法,甚至很可能會(huì)直接扼殺對(duì)國(guó)家工業(yè)、軍事、民生產(chǎn)生重要影響的技術(shù)突破,導(dǎo)致其無法繼續(xù)發(fā)展了。在這個(gè)背景下,人工智能和機(jī)器人倫理監(jiān)管是各國(guó)正在普遍采取的一種策略。
從英美這些國(guó)家的做法來看,它們意圖把倫理價(jià)值融入在人工智能和機(jī)器人技術(shù)設(shè)計(jì)初期,而不是等事情發(fā)生了再去敲打。這種前瞻性的倫理路徑是非常值得借鑒的。在我們思考技術(shù)發(fā)展的時(shí)候,應(yīng)該把倫理價(jià)值關(guān)注轉(zhuǎn)換成技術(shù)研發(fā)人員和工程師能懂的代碼,把它實(shí)現(xiàn)在技術(shù)、產(chǎn)品設(shè)計(jì)的初期。
舉個(gè)例子,在做《白皮書》的時(shí)候,我們看到有很多的論文是來自荷蘭的兩個(gè)大學(xué)(TU Delft和University of Twente),但這兩個(gè)大學(xué)在我們國(guó)內(nèi)所熟知的傳統(tǒng)哲學(xué)領(lǐng)域并沒有非常顯赫的聲譽(yù)。讓我們特別詫異的是,他們的工作非常深入和系統(tǒng),他們對(duì)人工智能和機(jī)器人的倫理研究緊密地融入在科技研發(fā)的平臺(tái)上。后來我們從國(guó)內(nèi)科技界同仁那里了解到,這兩所大學(xué)都以機(jī)器人科技研發(fā)見長(zhǎng)。他們的相關(guān)倫理研究并不是哲學(xué)系里一批人在單獨(dú)工作,而是依托大學(xué)自身的技術(shù)工程背景進(jìn)行跨學(xué)科整合。從技術(shù)發(fā)端之始,他們就進(jìn)行著跨學(xué)科的團(tuán)隊(duì)合作,以此來推動(dòng)倫理在科技創(chuàng)新中的深度融合。這對(duì)于我們未來產(chǎn)學(xué)研結(jié)構(gòu)的調(diào)整是非常重要的啟發(fā)。
AI和機(jī)器人領(lǐng)域的倫理難題
對(duì)于工業(yè)機(jī)器人,大家首先關(guān)注的是它的安全問題,協(xié)作型機(jī)器人出現(xiàn)之前,發(fā)生過一些嚴(yán)重的機(jī)器人事故,各國(guó)都有。工業(yè)協(xié)作型機(jī)器人出現(xiàn)之后,大家更多關(guān)注的是其對(duì)就業(yè)崗位的沖擊。但也有另外一種聲音,據(jù)國(guó)際機(jī)器人聯(lián)合會(huì)(IFR)統(tǒng)計(jì),機(jī)器人的確削減了很多就業(yè)崗位,但也增加了許多新興崗位。
美國(guó)的機(jī)器人和人工智能戰(zhàn)略中,提出人力資源管理部門要形成新的培訓(xùn)體系,對(duì)新的崗位提供培訓(xùn)平臺(tái),這一點(diǎn)在應(yīng)對(duì)人工智能和機(jī)器人帶來的崗位沖擊時(shí)至關(guān)重要。然而,要想讓再次就業(yè)成為可能,那就需要讓大學(xué)教育,甚至中小學(xué)教育模式進(jìn)行調(diào)整。就業(yè)人員的素質(zhì)不是一兩天能夠培訓(xùn)出來的,也不是單純靠技術(shù)知識(shí)灌輸就可以完成的。若此問題解決不好,人工智能和機(jī)器人的廣泛應(yīng)用對(duì)于中國(guó)就業(yè)就是剛性沖擊,會(huì)導(dǎo)致大量失業(yè)的出現(xiàn)。
第二,在工廠和車間中,當(dāng)機(jī)器人和人進(jìn)行協(xié)作作業(yè)時(shí),工人在生產(chǎn)流程中被安排在什么樣的位置中是非常重要的。我們?cè)O(shè)想,如果我們現(xiàn)在的這個(gè)會(huì)議是由機(jī)器人來指揮,我們要服從于機(jī)器人的各種指令,人類會(huì)覺得自身的價(jià)值嚴(yán)重受損,所以我們?cè)谠O(shè)計(jì)人工智能和機(jī)器人時(shí)還要充分考慮人自身的自我價(jià)值評(píng)價(jià)。
第三,當(dāng)協(xié)作機(jī)器人大量進(jìn)入工業(yè)生產(chǎn)中,這會(huì)大大降低人與人間協(xié)作交流的機(jī)會(huì),容易造成很多人員心理方面的問題,這也是需要我們重點(diǎn)考量。
在醫(yī)療健康領(lǐng)域,情況更加復(fù)雜。有案例表明,IBM Watson在通過大量掃描和解讀醫(yī)學(xué)影像后,可能給出的診斷結(jié)論和治療建議與人類醫(yī)生結(jié)論相反。在中國(guó)本已異常復(fù)雜的醫(yī)患關(guān)系現(xiàn)實(shí)下,如果出現(xiàn)這種問題,患者和醫(yī)生將應(yīng)如何面對(duì)?如果甚至由此出現(xiàn)治療問題,到底是人工智能設(shè)備、還是醫(yī)院、或是醫(yī)生來承擔(dān)責(zé)任?還是大家一起捆綁承擔(dān)?這些問題都是我們?cè)谝脒@類新興技術(shù)的時(shí)候從一開始就要考慮的。
目前,保險(xiǎn)業(yè)也開始對(duì)人工智能和機(jī)器人在醫(yī)療領(lǐng)域的應(yīng)用產(chǎn)生興趣。這將帶來另外的風(fēng)險(xiǎn)。保險(xiǎn)公司可能會(huì)在掌握醫(yī)療大數(shù)據(jù)(包括基因數(shù)據(jù))基礎(chǔ)上提高投保門檻,并對(duì)采取什么樣的治療方案進(jìn)行相當(dāng)深度的干預(yù),這些是和整個(gè)行業(yè)的利益捆綁在一起的。
另外一類,醫(yī)用機(jī)器人,比如現(xiàn)在很受歡迎的達(dá)芬奇機(jī)器人,進(jìn)行機(jī)器人手術(shù)治療。在其官網(wǎng)上我們能看到很多案例介紹,達(dá)芬奇機(jī)器人優(yōu)勢(shì)在于其精準(zhǔn)率高,創(chuàng)口小和術(shù)后康復(fù)時(shí)間短。但由于每個(gè)患者個(gè)體差異非常大,機(jī)器人手術(shù)會(huì)在個(gè)別患者身上出現(xiàn)復(fù)雜情況。在這樣的手術(shù)復(fù)雜情況下,人類醫(yī)生手術(shù)不得不介入,反而導(dǎo)致創(chuàng)傷面更大,康復(fù)過程非常復(fù)雜。這樣的責(zé)任該由誰(shuí)來承擔(dān)?是機(jī)器人,還是醫(yī)生、醫(yī)院、保險(xiǎn)公司等等?表面上來看,醫(yī)療技術(shù)的進(jìn)步可能是患者的福音,但真正介入行業(yè)的時(shí)候會(huì)發(fā)現(xiàn)很多問題。我國(guó)醫(yī)療資源的分配本來就很不均衡,這種高科技醫(yī)療機(jī)器人的使用,是否會(huì)加劇既有的不平衡?
還有一些進(jìn)入我們家庭生活的服務(wù)機(jī)器人,這些機(jī)器人在面對(duì)人類同時(shí)間多元需求時(shí),無法區(qū)分需求的優(yōu)先等級(jí)。設(shè)想正在陪伴孩子娛樂的機(jī)器人面對(duì)母親召喚做一些廚房家務(wù)的指令,它將無法分配優(yōu)先級(jí)并進(jìn)行相應(yīng)的回應(yīng)。
還有日本在養(yǎng)老院推出的陪護(hù)機(jī)器人,最初設(shè)想是緩解老人之間缺乏溝通的孤獨(dú)、封閉狀態(tài),通過把機(jī)器人擺在桌上,喚起老人對(duì)機(jī)器人的關(guān)愛從而引發(fā)老人彼此間的互動(dòng)。但實(shí)際上這些陪護(hù)類機(jī)器人所面對(duì)的基本都是老人、兒童這類弱勢(shì)群體,尤其是自閉癥兒童。這類人群很容易形成人對(duì)于機(jī)器人和人工智能系統(tǒng)的單向情感綁定,這對(duì)于他們要更好地進(jìn)行人類社會(huì)交流而言是災(zāi)難性的。
再來講講軍事機(jī)器人,近年來有關(guān)這類機(jī)器人的倫理討論在國(guó)際上有很多。當(dāng)機(jī)器人走上戰(zhàn)場(chǎng),它們將如何區(qū)分平民和戰(zhàn)斗人員?此外,如果把大量機(jī)器人派到戰(zhàn)場(chǎng)上,這是否會(huì)大大降低發(fā)動(dòng)戰(zhàn)爭(zhēng)的門檻,而并非削減戰(zhàn)爭(zhēng)?這對(duì)于國(guó)際政治秩序的沖擊也將是非常大的。
實(shí)際上,今天很多人工智能和機(jī)器人技術(shù)研發(fā)其實(shí)是和社會(huì)的需求緊密相關(guān)的。比如護(hù)理機(jī)器人,因?yàn)樵谌毡尽⒈睔W以及中國(guó)普遍出現(xiàn)的人口老齡化問題,導(dǎo)致我們不得不在此領(lǐng)域投入更多的力量去應(yīng)對(duì)社會(huì)未來潛在風(fēng)險(xiǎn)。再比如醫(yī)療領(lǐng)域,也和我們醫(yī)護(hù)人員嚴(yán)重不足息息相關(guān)。在無人駕駛領(lǐng)域,產(chǎn)業(yè)界會(huì)說人類駕駛交通事故率較高,無人駕駛可以讓駕駛變得更安全。實(shí)際上,以規(guī)則為基礎(chǔ)的方式為無人駕駛汽車嵌入一套道德法則是相當(dāng)困難的。
即便在人類社會(huì)中,我們的道德規(guī)則體系之間也常常相互沖突,這不僅包括兩類現(xiàn)代倫理體系——義務(wù)論和后果主義這樣的倫理原則沖突,也包括古典美德倫理和現(xiàn)代倫理的沖突;而且不僅涉及東西方文化差異,還有非洲和拉美這些地域的文化差異。如果人們的價(jià)值體系、所訴求的道德原則以及行為準(zhǔn)則,均展示巨大的文化差異,這種情況下,應(yīng)該為機(jī)器人嵌入什么樣的倫理原則?由于今天國(guó)際化和流動(dòng)性的增加,每個(gè)社會(huì)內(nèi)部就是倫理價(jià)值多元的。在這種情況下,誰(shuí)有權(quán)決定哪一種倫理原則應(yīng)該被嵌入?難道科技公司巨頭來為人類決定道德生活規(guī)制?再則,責(zé)任分配和歸屬也面臨非常大的問題。不管采取什么樣的倫理原則,一旦出現(xiàn)了交通事故,該由誰(shuí)來承擔(dān)責(zé)任,是制造商、駕駛員,還是機(jī)器人系統(tǒng)本身等等?以上這些問題還僅僅是冰山一角,人工智能和機(jī)器人產(chǎn)品帶來的挑戰(zhàn)和風(fēng)險(xiǎn)都是我們要去面對(duì)的。
英美的人工智能倫理研究
歐盟早在2004年,就啟動(dòng)了對(duì)人工智能和機(jī)器人倫理問題的關(guān)注。英國(guó)議會(huì)的上院制定了一個(gè)雄心勃勃的計(jì)劃。他們提出英國(guó)要在人工智能和機(jī)器人倫理方面成為國(guó)際領(lǐng)袖。由此,英國(guó)要來引導(dǎo)和規(guī)劃全球人工智能和機(jī)器人的使用和研發(fā)。作為這個(gè)世紀(jì)的一個(gè)平臺(tái)性技術(shù),人工智能和機(jī)器人倫理標(biāo)準(zhǔn)對(duì)于科研、產(chǎn)業(yè)方向布局會(huì)產(chǎn)生重大的影響。
目前國(guó)際上,英國(guó)BSI和美國(guó)IEEE對(duì)人工智能和機(jī)器人倫理標(biāo)準(zhǔn)的研究和制定相對(duì)領(lǐng)先,研究投入和持續(xù)性很強(qiáng)。英國(guó)以后果主義倫理的基本框架來制定標(biāo)準(zhǔn),美國(guó)則試圖遵循新亞里士多德主義的美德倫理框架,并在第二版中增加了大量的對(duì)印度、非洲、日本倫理傳統(tǒng)的跨文化研究。其負(fù)責(zé)人海文斯(John Havens)在2016年第二版發(fā)布會(huì)上曾表示:隨著我們?nèi)找嬉庾R(shí)到文化和倫理價(jià)值的多元,我們必須要考慮到針對(duì)新興科技的倫理標(biāo)準(zhǔn)和價(jià)值需要達(dá)成國(guó)際性共識(shí)。
根據(jù)目前技術(shù)發(fā)展平臺(tái),各國(guó)推出的人工智能和機(jī)器人倫理標(biāo)準(zhǔn)還沒有深入涉及具有完全道德自主性的人工智能和機(jī)器人系統(tǒng)。基于現(xiàn)在的技術(shù)發(fā)展以及可預(yù)見的未來,具有完全自主性的人工智能和機(jī)器人產(chǎn)品暫時(shí)不會(huì)出現(xiàn),所以我所看到的各個(gè)標(biāo)準(zhǔn)也暫時(shí)未賦予機(jī)器人具有與人類同等的道德地位。
-
機(jī)器人
+關(guān)注
關(guān)注
211文章
28386瀏覽量
206921 -
人工智能
+關(guān)注
關(guān)注
1791文章
47200瀏覽量
238271
原文標(biāo)題:學(xué)者之聲丨北京大學(xué)劉哲:倫理研究應(yīng)與人工智能的技術(shù)發(fā)展相嵌融合
文章出處:【微信號(hào):drc_iite,微信公眾號(hào):全球技術(shù)地圖】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論