最近兩年,我國涉人工智能法學(xué)研究呈現(xiàn)出井噴態(tài)勢,累計的研究成果甚至遠超以往二十年成果的數(shù)倍之多。這在一定程度上受到2017年7月國務(wù)院《新一代人工智能發(fā)展規(guī)劃》提出的“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系”等目標(biāo)的激勵。綜合而言,人工智能法學(xué)研究主要涉及兩大領(lǐng)域:一是人工智能技術(shù)在司法中的應(yīng)用,如“智能裁判輔助系統(tǒng)”“智慧法院”“智慧檢務(wù)”等;二是涉人工智能體的實體法問題,如人工智能創(chuàng)作物的知識產(chǎn)權(quán)歸屬、自動駕駛的侵權(quán)處理等。
上述領(lǐng)域均屬法律與技術(shù)的交叉面向,但前者的技術(shù)性、專業(yè)性更強,研究門檻更高。后者則更多涉及法律原理層面的思辨活動,因而“以思維見長”的法律人紛至沓來,最為熱鬧。后者的核心問題是(強)人工智能體是否可以作為獨立承擔(dān)法律責(zé)任的主體,其極端表現(xiàn)是:人工智能是否可以成為犯罪主體而被科處刑罰。當(dāng)前,肯定論尚占據(jù)絕對話語主導(dǎo),其基本理由是:未來的智能機器人具有自主意志,能夠脫離人類控制而造成社會損害,可以獨立承擔(dān)法律責(zé)任甚至刑罰。然而,肯定論已經(jīng)不自覺地陷入了兩個方法論陷阱,所謂的法學(xué)思辨針對的可能是偽問題、偽風(fēng)險、偽挑戰(zhàn)。
其一,大量使用修辭。人工智能之所以會被認為具備獨立意志,是因為人類為之設(shè)計了算法,若技術(shù)果真成熟,即便其外形不是“人”而是一條狗、一頭豬、一個機械手臂甚至單單一臺沒有形體的計算機主機,這種“思考能力”也不受影響。與此相反,人類若只有大腦而無身體,則不能存活。這是“機器人”與“人”的最大區(qū)別。但是,當(dāng)我們習(xí)慣于把Robot翻譯成“機器人”時,早就先入為主地將它認定為與人類比肩的“類人”。如果我們將它們稱為“智能機器豬”“智能機器狗”“智能機器老鼠”,我們是否還有興趣追問“豬狗牛羊是否可以承擔(dān)刑事責(zé)任”?然而,人們似乎只愿將這些破銅爛鐵制成的機器稱為“機器人”,并且總是像裝扮索菲亞那樣將它們造出人類的面孔、表情以及語言系統(tǒng),讓它們成為酷似人類的“類人機器”。這種外表的親緣性讓人產(chǎn)生了“同類”般的興趣感、同情心。可當(dāng)我們將它們的頭顱換成豬頭、狗頭、“話癆鸚鵡”、金屬麥穗甚至木頭樁子時(內(nèi)部意識、語言能力不受任何影響),人們可能沒有多少激情讓動物或者金屬成為與人類平等的法律主體。
還有人認為機器人與人類工作上緊密協(xié)作、生活上相互陪伴,因而屬于人類的伴侶、密友,應(yīng)當(dāng)作為一個獨立的法律主體。但早在幾萬年前,人類就已經(jīng)馴化狗并將之作為伙伴,難道今日我們也要將中華田園犬作為法律主體?修辭的魅力之一就是通過無比強大的語言讓人難以斷言其“錯”,誰能證明“有些人死了但他還活著”“死亡就是對生命的肯定”“1+1》2”等命題在社會科學(xué)上是不正確的?智能機器之所以被認為需要負法律責(zé)任,只是因為人們覺得它們“像自己”,就如同1266年法國豐特奈玫瑰縣的法官在審判一只豬時先給它穿上了人類的衣服。若將問題轉(zhuǎn)換成“一堆廢銅爛鐵、一只豬狗是否可以接受審判”,我們可能會像對待漢代張湯審判老鼠、西方主教法庭審判象鼻蟲、法國法官審判豬那樣一笑置之。
其二,大量憑借想象。肯定論之所以堅持認為人工智能可以成為法律主體,其問題意識來源于人工智能的技術(shù)風(fēng)險(如人工智能車間殺人、人工智能汽車駕駛殺人等),尤其在機器人索菲亞被賦予“公民身份”、在與發(fā)明者漢森的對話中冒出一句“我想毀滅人類”之后,法律人似乎更加恐慌。但是,當(dāng)前的人工智能全部是“弱智”人工智能,它們的傷人行為完全可以在既有法律責(zé)任體系內(nèi)得到解決,如侵權(quán)責(zé)任法上的產(chǎn)品責(zé)任、刑法上針對生產(chǎn)領(lǐng)域的過失犯罪以及生產(chǎn)銷售瑕疵產(chǎn)品犯罪等,因而擴散此種憂患尚不足以支撐肯定論的“真問題”。或許未來的強人工智能更讓人擔(dān)憂,但這種討論完全借助于對超遠未來的想象,而非當(dāng)前或不久之后所要面臨的情境。當(dāng)人工智能領(lǐng)域的科學(xué)家指責(zé)索菲亞只不過是一場市場營銷騙局,當(dāng)他們對強人工智能是否會實現(xiàn)仍然存在學(xué)派對立時,法律人為何如此底氣十足、信誓旦旦地堅稱“自主意識的機器人不久就會實現(xiàn)”?肯定論屬于“法律先行派”的論調(diào),這種“未雨綢繆”可謂無比超前,他們比科學(xué)家走得還要遠。科學(xué)家想到的,他們想到了;科學(xué)家沒有想到的,他們也想到了。這不亞于探究“外星人是否需要承擔(dān)刑事責(zé)任”,比較實際的態(tài)度應(yīng)當(dāng)是:先找到外星人再說吧。
因此,著名人類學(xué)家布魯諾·拉圖爾的告誡值得銘記:“人工智能的背后恰恰都是人,人們總是喜歡自己嚇唬自己,但同時又看不到真正的危險在哪里。我們目前的人類社會確實已經(jīng)非常危險,但我們的危險絕對不是來自AI”(《三聯(lián)生活周刊》2017年第21期)。人類成為法律主體并不僅僅因為計算能力,還在于其謀算能力(包括情感、靈性、精神等因素)。強人工智能的那種所謂自主意識,一些動物也具備,如在美國紐約最高法院的一起“為黑猩猩申請人身保護令”訴訟中(NhRP. v. Stanley),法院收到了一項專家證據(jù):人類和黑猩猩的DNA幾乎有99%是相同的,它們在大腦結(jié)構(gòu)、認知發(fā)展、情感交流、社群活動等方面表現(xiàn)出了十足的“類人性”,甚至比某些狀態(tài)下的人類還要強。但法院最終否認了黑猩猩的法律人格,它們不能像人類那樣理解行為的規(guī)范意義,這才是最根本的。法律人憑借修辭和想象所做出的判斷,可能完全失真。如果一條法律規(guī)范只針對超遠未來才有效,那么這種象征性立法也著實沒有意義,嚴重背離法律定分止?fàn)幍谋疽猓粝碌闹皇且坏嘏菽?/p>
-
機器人
+關(guān)注
關(guān)注
211文章
28390瀏覽量
206957 -
人工智能
+關(guān)注
關(guān)注
1791文章
47208瀏覽量
238295
發(fā)布評論請先 登錄
相關(guān)推薦
評論