就像硬幣的兩面,技術進步在便利人們生產生活的同時,也帶來一個嚴峻的現實問題——當機器足夠智能之后,其對人類造成的不可挽回的傷害該由誰負責?
雖然如科幻片中那樣機器人“背叛”人類、攻擊人類的場景短期內還不會到來,但機器的類型是多種多樣的。現階段,人類的生命安全最受智能機器威脅的場景恐怕就是交通出行上。
2018年,全球首例自動駕駛撞擊行人致死事故發生。美國時間3月18日晚22點,一輛Uber自動駕駛汽車在美國亞利桑那州坦佩市碰撞到一個橫穿馬路的行人——49九歲的女性流浪者Elaine Herzberg,Elaine Herzberg在被送往醫院后不治身亡。
坦佩市警方發言人稱,初步調查發現,事件發生時,這輛Uber自動駕駛汽車處于L4級別的自動駕駛模式,并在最高時速35英里的道路上以時速38英里行駛,且沒有及時剎車的動作。與此同時,駕駛位上的安全駕駛員沒有收到任何信號,直到碰撞發生后才意識到發生了事故。
今年9月,馬里科帕縣大陪審團作出裁決,Uber自動駕駛汽車的安全駕駛員被指控犯有過失殺人罪。而這起案件也因此對后世類似判決帶來了里程碑式的借鑒意義。
事實上,當人工智能造成一個人受傷或死亡時,確定過錯責任并不是一件容易的事情。如果人工智能有時失控有時正常,那么什么時候是可以把錯歸責于人類,什么時候可以歸咎于人工智能?
今年10月2日,發表在《波士頓大學法律評論》上的一篇論文《疏忽與人工智能的人類使用者》(Negligence and AI‘s Human Users)就重點討論了這個問題。在論文中,加州大學洛杉磯分校助理教授Andrew Selbst發現,人工智能與現有的人類過失行為法律產生了矛盾沖突,需要監管機構介入干預。
Selbst表示,Uber案件可能會有兩種情況。其一,法官或陪審團可能會發現,讓一個與半自動車輛打交道的人承擔責任是不合理的;其二,可以將責任歸給一個對自動或自主系統控制有限的人類行為者。這也就是文化人類學家Madeleine Elish所說的“道德碰撞區”——當機器和人類被同步考慮,但法律沒有考慮到機器的智能時,人類就會承擔責任。
“如果過失法要求的謹慎標準高于人類所能管理的標準,那么它將把責任推給人類操作者,即使在普通人無法防止危險的情況下也是如此,”Selbst寫道。“雖然Uber案件似乎指向了‘道德碰撞區”的方向,但也很容易想象到相反的情況——發現因為普通人無法及時做出反應或永遠保持警惕,所以不這樣做是合理的。歸根結底,人工智能帶來的是不確定性。”
Selbst表示,法律學者傾向于區分完全自主的車輛和與人類合作的半自主機器,比如Uber車禍中的車輛。雖然完全自主車輛或通用人工智能(AGI)可能會將責任轉移到硬件制造商或人工智能系統上,但當人類使用人工智能根據預測、分類或評估做出決定時,答案就不那么明確了。Selbst預計,這將給企業、政府和社會帶來新的挑戰。
如今絕大多數的人工智能都是為了增強人類的決策能力而出現的。例如,從法官用來評估多次犯罪的算法,到醫療專業人員用來制定醫療計劃或診斷的AI驅動工具。這些系統包括檢測醫學圖像中的模式,以幫助專業人士診斷乳腺癌、肺癌和腦癌等疾病。
Selbst表示,雖然技術是推動過失法律變革的關鍵因素,但人類和人工智能相互依賴決策的方式讓人工智能與眾不同。使問題更加復雜的是,人類可能會不加審視地接受自動決策,如果他們因太多通知而遭受警報疲勞,就會忽略AI,或者依靠AI來識別太復雜的數據中的模式。
Selbst表示,在一個充滿人類和AI系統共同決策的世界里,政府需要考慮改革,讓過失法律有機會趕上快速崛起的技術。
“如果社會認為人工智能過于有利而不能擱置,那么我們可能需要一個新的監管模式,以補償使用人工智能的受害者,而且這種模式應該是一種脫離了尋找過失的需求的模式。這可能是嚴格責任,可能是廣義保險,也可能是事前監管。”論文中寫道。
為了解決這個問題,人們開發了各種模式,比如安德魯·塔特(Andrew Tutt)提出的“算法 FDA”(FDA for algorithm),這是一個機構,其運作方式與 FDA 在調查藥品方面的運作方式非常相似。還有一種想法是,類似于環境影響評估的算法評估,以此來加強監督和公開披露。
“最終,由于人工智能在決策和結果之間插入了一層難以捉摸的、不直觀的、統計學上衍生的、通常是專有的代碼,人類的選擇、行動和結果之間的聯系受到了考驗,”論文中寫道。“雖然可能有一種方法可以利用解釋和透明度要求將一些決定與其結果聯系起來,但疏忽需要一系列外部干預措施,才能真正有機會為使用人工智能造成的傷害提供補救。”
這樣做可能會給過失法律標準一些時間,以便在未來范式轉變發生和標準進一步落后之前趕上人工智能的進步。
這篇論文還探討了當算法偏差在傷害中發揮作用時會發生什么的問題。回到自主車輛問題,研究表明,計算機視覺系統在檢測白人行人方面比黑人行人做得更好。接受這種系統的使用,可以從整體上減少交通事故的數量,但同時對黑人行人就不怎么友好了。
Selbst表示,如果沒有監管部門的干預,人工智能有可能會將某些群體的不良結果正常化,同時拒絕他們任何求助。這有可能會放大人們在網上遇到算法偏見或遭遇傷害時已經感受到的無助感。
“令人擔憂的是,雖然人工智能可能會成功地減少傷害的總體數量,但它不會消除這些傷害,甚至剝奪了受害者的求助能力。”該論文寫道。
在問責制方面,人工智能行業的保密性是一個主要障礙。過失法律通常會隨著時間的推移而演變,以反映關于什么構成合理行為的共同定義。但企業的保密性很可能使導致傷害的人工智能缺陷不為公眾所知。而人工智能的快速發展有可能會壓倒過失法或侵權法的修改步伐,進一步加劇這種情況。
“由于保密,我們對各個AI公司產品中的錯誤和漏洞知之甚少。在這種情況下,公眾不可能對什么樣的故障是合理的或不合理的作出任何結論。”論文指出。
責編AJX
-
算法
+關注
關注
23文章
4608瀏覽量
92844 -
AI
+關注
關注
87文章
30763瀏覽量
268906 -
人工智能
+關注
關注
1791文章
47208瀏覽量
238284
發布評論請先 登錄
相關推薦
評論