自2004年美國國防部高級研究計劃局(DARPA)大挑戰賽的參賽者中沒有一人成功完成比賽以來,自動駕駛汽車已經走過了很長一段路?,F在,特斯拉已經在公共道路上進行了多次測試,并向選定的車主發布了一款測試版的全自動駕駛汽車。但在我們讓汽車替我們駕駛之前還有一個主要問題需要解決,并不是技術問題,而是一個道德問題。
想象一下,一輛自主汽車在它行駛的道路上發現一個行人,并且行駛速度太快,無法安全停車。它有兩個選擇,要么它嘗試停下來,但可能會撞死行人?;蛘?,它可以避開行人,但很可能會撞到障礙物,導致乘車人受傷或死亡。它會選擇哪一個?
這聽起來像是一個簡單的選擇,但是你越仔細想,就會發現更多的細微差別。如果行人是母親和孩子怎么辦?如果車里全是孩子怎么辦?如果猛剎車很可能意味著后面的車也發生了事故呢?換句話說,自動駕駛汽車必須計算出對人類生命造成的傷害最小的情況,這意味著它可能會決定傷害甚至殺死乘客來保證造成的傷害最小。
作為人類駕駛員,我們會很自然地做出這些決定。一只狗跑到路上,我們會剎車,試圖避開這只狗,但如果無法避免要有一方受到傷害,我們大多數人會選擇殺死這只狗,而不是傷害我們自己和車上的人。我們會盡量不傷害狗,但不能以自己的生命為代價。如果是孩子在路上,我們可能會寧愿讓自己受傷,以防止或減少對孩子的傷害。但我們仍然不會為了避免傷害孩子而轉向迎面開來的車輛。
然而,問題并不僅僅在于受到的傷害最小。如果發生事故,誰負責?如果行人亂穿馬路,也許是他們的錯,他們比車上的人更應該受傷。但是,如果自動駕駛系統已經決定了要傷害誰、保護誰,那么發生事故時是司機的錯?汽車制造商的錯》還是編寫自動駕駛軟件的公司的錯?
當特斯拉使用自動轉向和自適應巡航控制系統的汽車發生事故時,我們已經看到關于這種問題的一些爭論。這種情況并不常見,但當與自動駕駛相關的事故確實發生時,問題就在于司機是否應該做得更多,還是由于系統未能正確發揮作用,認為特斯拉應該承擔責任。
即使特斯拉說按照說明使用,自動駕駛汽車不會造成事故,也無法保證這種有爭論性的問題不會發生。類似地,大約三年前,優步停止了無人駕駛出租車的試驗,因為一輛出租車在評估影響之后撞死了一名行人。
我們也不能想當然地認為,無論在哪里,這些問題的答案都是一樣的,因為它們不像物理定律,在世界上任何地方的答案都是統一的。幾年前發表在《自然》(Nature)雜志上的一項研究表明,這些涉及倫理的決定并不具有普遍性,它們因文化而異。這項調查使用的是麻省理工學院的“道德機器”(Moral Machine),覆蓋了全球230萬人,并有一些有趣的發現。例如,與貧困地區相比,富裕國家的人們不太可能對亂穿馬路的行人施以援手?,F在仍然可以在道德機器的專門網站上看到它提出的場景。
自動駕駛系統的開發人員至少考慮到了道德層面。眾所周知,Waymo開發團隊聘請了一些人來增加道德方面的考量。然而,在自動駕駛成為主流之前,這個問題必須得到解決。這個問題解決之后將帶來巨大的好處,因為大多數研究證實,自動駕駛汽車將比人類司機更安全,因為不會疲勞或被手機分心。
事實上,蘭德公司有一個方便的工具,可以根據各種參數計算出多少生命將被挽救。即使假設自動駕駛汽車只比人類駕駛員安全10%,在未來幾十年里,隨著系統的引入,也會挽救數十萬人的生命,而且大多數理論家認為自動駕駛汽車將比這一假設的數據安全得多。
總的來說,我們不能認為自動駕駛汽車的問題純粹是技術問題。顯然,最重要的是能夠成功地導航道路布局和標記,能夠根據交通速度和天氣等條件變化。但一旦他們掌握了這種技能(現在看來非常接近),倫理和道德層面的問題就會凸顯出來。無人駕駛汽車也需要具備道德考量,因為在此之前,無人駕駛汽車將備受爭議。但這是一個亟須解決的問題,因為隨著我們的道路變得越來越擁擠,安全和駕駛效率將是一個重大問題。
原文鏈接:
https://www.forbes.com/sites/jamesmorris/2021/02/13/self-driving-cars-wont-go-mainstream-until-we-solve-this-problem/?sh=758055bf2f3b
編輯:jq
-
無人駕駛
+關注
關注
98文章
4057瀏覽量
120467 -
自動駕駛系統
+關注
關注
0文章
65瀏覽量
6765
原文標題:這個問題不解決,自動駕駛汽車永遠無法普及
文章出處:【微信號:SSDFans,微信公眾號:SSDFans】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論