懷疑論者表示,完全自動駕駛可能比想象的更遙不可及,只是業界不愿承認罷了。
如果你真相信首席執行官們說的話,完全自動駕駛的汽車可能再過幾個月就會問世。
2015年,埃隆?馬斯克預測到2018年完全自動駕駛的特斯拉會面市;谷歌也是如此。
Delphi和MobileEye的L4系統目前定于2019年推出,同年Nutonomy計劃在新加坡的街道上部署數千輛無人駕駛的出租車。
通用汽車(GM)將在2019年量產完全自動駕駛的汽車,沒有方向盤,駕駛員也無法干預。這些預測背后都有真金實銀在支撐,豪賭軟件能夠不辱使命,功能像宣傳的那么強大。
乍一看,完全自動駕駛似乎比以往任何時候都更觸手可及。
Waymo已經在亞利桑那州一些有限但公開的道路上測試汽車。
特斯拉及其他眾多模仿者已經在出售功能有限的自動駕駛系統(Autopilot),一旦發生任何意外情況,依賴駕駛員干預。
已發生過幾起事故(有些還是致命的),但業界普遍認為,只要系統不斷改進,我們離根本不必有人干預不會太遠。
但是完全自動駕駛汽車這個夢想可能比我們想象的更遙不可及。
AI專家們越來越擔心,自動駕駛系統能可靠地避免事故至少還要再過幾年,甚至再過幾十年。
由于自我訓練的系統很難應對現實世界的混亂局面,像紐約大學的加里?馬庫斯(Gary Marcus)這些專家準備好了對預期進行一番痛苦的重新調整,這番糾正有時被稱為“AI寒冬”。這種延遲可能給依賴自動駕駛技術的公司帶來災難性后果,讓整整一代人體驗不到完全自動駕駛。
不難理解為什么汽車公司對自動駕駛持態度樂觀。在過去的十年間,深度學習已經在AI和技術行業帶來了幾乎無法想象的進展;深度學習這種方法使用層次化的機器學習算法,從海量數據集中提取結構化信息。深度學習支持谷歌搜索、Facebook新聞源(News Feed)、對話式語音/文本轉換算法以及會下圍棋的系統。在互聯網之外,我們使用深度學習來檢測地震、預測心臟病并標記拍攝鏡頭中的可疑行為,還有另外無數原本不可能實現的創新。
但深度學習需要大量的訓練數據才能發揮作用,包含算法會遇到的幾乎每一個場景。比如說,Google Images等系統擅長識別動物,只要有訓練數據給它們展示每種動物長的樣子。馬庫斯將這種任務稱之為“內插”(interpolation),對所有標記為“豹貓”的圖像進行調查,從而確定新圖片是否屬于豹貓這一類。
工程師們可能在數據來自何處以及如何組織數據方面另辟蹊徑,但這對某種算法能覆蓋多廣的范圍施加了嚴格的限制。同樣的算法無法識別豹貓,除非它見過成千上萬張豹貓的照片――即使它見過家貓和美洲虎的照片,并且知道豹貓介于這兩種動物之間。這個過程名為“泛化”(generalization),需要一套不同的技能。
長期以來,研究人員認為自己可以借助合適的算法改進泛化技能,但最近的研究表明,傳統深度學習在泛化方面比我們想象的還要糟糕。一項研究發現,傳統深度學習系統面對一段視頻的不同幀時,甚至難以泛化,只要視頻背景出現小小的變化,就會將同一只北極熊標記為狒狒、貓鼬或黃鼠狼。由于每個分類基于總共幾百個因素,照片哪怕小小的變化也可能完全改變系統的判斷,其他研究人員已在對抗數據集中利用了這一點。
馬庫斯提到聊天機器人熱潮就是炒作遭遇泛化問題的最新例子。他說:“2015年有廠商向我們承諾推出聊天機器人,但它們沒有任何好處,因為這不僅僅是收集數據的問題。”你在網上與某人交談時,不僅僅想要對方復述之前的談話。你希望對方回應你說的話,利用更廣泛的對話技能作出專門針對你的回應。深度學習根本搞不出這樣的聊天機器人。一旦最初的炒作退潮,許多公司對聊天機器人項目失去了信心,現在只有個別公司還在積極開發中。
這讓特斯拉及其他自動駕駛公司面臨一個可怕的問題:自動駕駛汽車會像圖像搜索、語音識別及其他AI成功故事那樣變得越來越好?還是會像聊天機器人那樣遇到泛化問題?自動駕駛是一個內插問題還是泛化問題?駕駛多么難以預測?
現在要知道結果還為時過早。馬庫斯說:“無人駕駛汽車就像我們不知道答案的科學實驗。”我們之前從來沒有實現過這個級別的自動駕駛,所以我們不知道它是哪種類型的任務。如果只是識別熟悉的對象和遵守規則,那么現有技術應該能勝任任務。不過馬庫斯擔心,在事故多發的場景下安全駕駛可能比想象的來得復雜,只是業界不想承認罷了。“只要令人驚訝的新狀況出現,那么這對于深度學習來說不是一件好事。”
我們已有的實驗數據來自公共事故報告,每一份報告都提出了某個不同尋常的難題。在2016年的一場致命車禍中,一輛特斯拉Model S全速撞上了一輛白色牽引式掛車的尾部,原因是很高的掛車底盤和刺眼的陽光反射讓車子備感困惑。3月份,一輛自動駕駛的優步汽車撞死了一名推著自行車的女子,當時這名女子正穿過一條未經授權的人行橫道。據美國國家運輸安全委員會(NTSB)的報告顯示,優步的軟件將這名女子誤識別成不明物體,然后誤識別成汽車,最后誤識別成自行車,每次都更新預測。在加利福尼亞州的一次撞車事故中,一輛Model X在撞擊前一刻加速駛向障礙物,至今原因仍然不明。
每次事故似乎都是極端情況,這是無法要求工程師們提前預測的那種情況。但幾乎每一起車禍都涉及某種不可預見的場景;如果沒有泛化的能力,自動駕駛汽車將不得不面對這每一個場景,就好像這是頭一次。結果就是一連串僥幸事故:隨著時間的推移,這些事故并不變得不那么常見或不那么危險。對于懷疑論者來說,手動脫離報告已表明了這種情形,已經到了止步不前的窘境。
吳恩達是百度前高管,Drive.AI的董事會成員,也是業界最著名的推手之一。他認為,問題不在于建造一套完美的駕駛系統,而是培訓旁觀者來預測自動駕駛行為。換句話說,我們可以為汽車確保道路安全,而不是反過來。作為一種不可預測的情況,我詢問他是否認為現代系統可以應對踩彈簧單高蹺的行人,即使之前從來沒有見過。吳恩達告訴我:“我認為許多AI團隊可以應對人行橫道上踩著彈簧單高蹺的行人。話雖如此,在高速公路中央踩彈簧單高蹺確實很危險。”
吳恩達說:“我們應該與政府合作,要求人們遵紀守法、為他人考慮,而不是設計解決彈簧單高蹺問題的AI。安全不僅僅與AI技術的質量有關。”
深度學習不是唯一的AI技術,許多公司已經在探究替代方案。雖然技術在業內受到嚴加保護(只要看看Waymo最近起訴優步的官司),但許多公司已轉向基于規則的AI,這種較古老的技術讓工程師們可以將特定的行為或邏輯硬編碼到其他方面自主的系統中。它并不具備僅僅研究數據就可以為自己行為編程的同樣能力,這正是深度學習如此令人興奮的原因,但它讓公司可以避免深度學習的一些局限性。但由于感知的基本任務仍然受到深度學習技術的深遠影響,很難說工程師們隔離潛在的錯誤會多成功。
身為Lyft董事會成員的風險資本家安妮?三浦康(Ann Miura-Ko)表示,她認為問題的一方面在于對自動駕駛汽車本身寄予厚望,將完全自動駕駛之外的任何系統都歸入為失敗。三浦康說:“期望自動駕駛汽車從零進入到L5是期望不匹配,而不是技術失敗。我認為所有這些微小改進都是邁向完全自動駕駛這條道路上的非凡成就。”
不過,目前不清楚自動駕駛汽車在目前這種窘境下保持多久。像特斯拉的自動駕駛系統這樣的半自動產品智能化程度很高,足以應對大多數情形,但是如果發生任何不可預測的情況,還是需要人為干預。果真出岔子時,很難知道究竟怪汽車還是怪駕駛員。對于一些評論人士來說,這種人機混合體可能不如人類駕駛員來得安全,即使錯誤很難完全歸咎于機器。蘭德公司的一項研究估計,自動駕駛汽車必須在沒有一起死亡事故的情況下行駛2.75億英里,才能證明它們和人類駕駛員一樣安全。與特斯拉的自動駕駛系統相有關的首例死亡事件發生在該項目行駛了約1.3億英里處,遠低于這個標準。
但由于深度學習是汽車如何識別物體并決定應對的關鍵,降低事故率可能比看起來更難。杜克大學教授瑪麗?卡明斯(Mary Cummings)提到今年早些時候導致一名行人死亡的優步事故時說:“這不是一個很容易被隔離的問題。感知-決策周期常常相互關聯,就像撞死行人的事故中那樣。由于感知方面存在模糊性,做出了什么操作都不采取的決定;又由于從傳感器得到了太多的誤警報,緊急制動系統被關閉。”
那起車禍事故以優步暫停夏季的自動駕駛測試工作收場,這對于計劃推廣測試的其他公司來說是不祥之兆。在這個行業,許多公司競相獲取更多的數據來解決問題,以為行駛里程最多的公司會構建最強大的系統。但是雖然許多公司覺得只是數據問題,馬庫斯卻認為解決起來困難得多。馬庫斯說:“它們只是使用擁有的技術,希望它會起作用。它們依賴大數據,因為這是他們手頭擁有的利器,但沒有任何證據表明它讓你可以達到我們所需的那種精確度。”
-
無人駕駛
+關注
關注
98文章
4055瀏覽量
120459 -
自動駕駛
+關注
關注
784文章
13787瀏覽量
166407 -
深度學習
+關注
關注
73文章
5500瀏覽量
121118
原文標題:無人駕駛進入實際應用還有很長的路要走
文章出處:【微信號:iotmag,微信公眾號:iotmag】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論