翻譯 | 尚巖奇
此刻,一輛無人駕駛的小型貨車正行駛在亞利桑那州鳳凰城的郊外。你可能會擔憂它是否安全,但為這輛車打造了自動駕駛大腦的 Waymo 希望能向你保證,這輛車是很安全的。
Alphabet 旗下的無人駕駛汽車部門 Waymo 是目前世界上唯一一家有全無人駕駛汽車(車內無人)上路權限的公司。實現這一切的技術是由一系列由機器學習驅動的復雜神經網絡,但直至現在,外界對 Waymo 的技術仍知之甚少。
這是 Waymo 首次向外界披露其眾多技術中最重要(或最難理解)的技術。以多種標準衡量,Waymo 在這場無人駕駛汽車競賽中都遙遙領先。Waymo 驕傲地宣傳著它所擁有的當前最先進的無人駕駛系統(大腦)。
它當下的成功離不開以下幾個因素:其姊妹公司 Google 在 AI 投資上搶得先機;Google 完成的幾項戰略性收購;Waymo 與 Google 內部 AI 研究員團隊的緊密合作關系。
▌AI前沿技術
任何人都可以買一大堆攝像機和 LIDAR 傳感器安裝在車上,然后將其稱為自動駕駛汽車。但人工智能前沿技術的目標是訓練自動駕駛系統像人類駕駛員那樣開車,或者比人類駕駛的更好(這更為重要)。Waymo 的工程師不僅對汽車如何識別道路上的物體進行了建模,還對人類行為如何影響汽車的應有反應進行建模。借助 600 萬英里的公路行駛數據和 500 萬英里的模擬行駛數據,他們讓系統利用深度學習來學習理解、預測和做出反應。
Waymo 最新加入的員工 Anca Dragan 在這個項目中負責著重要的工作。她在今年一月剛加入 Waymo,在這之前她是加州大學伯克利分校 InterACT 實驗室主任,專注于研究人類與機器人的交互。Dragan 在 Waymo 的職責是確保人類(行為、乘客、其他汽車的駕駛員)與 Waymo 無人駕駛汽車的交互是完全積極的。換句話說, Dragan 的職責是防止機器人革命的發生。
一方面我們不希望機器人稱霸地球,另一方面我們也不想要畏手畏腳的機器人駕駛員,Dragan 必須在其中找到一種平衡。比如,如果你以 65 英里/每小時的速度在一條擁擠的高速公路上快速行駛,你想要擠到左邊的車道上去,這時你可能會慢慢地將車向左邊靠過去,直到其他駕駛者最終給你讓出空間。
無人駕駛汽車可能會很難完成這個任務,因為它經過訓練后會遵守道路交通規則。推特上最近有一段視頻顯示,Waymo 的一輛無人駕駛休旅車試圖擠進一條擁擠的高速車道,但失敗了。
Dragan 稱:“如何讓無人駕駛汽車適應同道路上的其他司機?如何調整無人駕駛汽車才能使乘坐者更加舒適或者使行駛更加自然?這些都是細微的改進,如果想要實現這些改進,就必須打造一個好用的自動駕駛系統”。
對無人駕駛汽車來說,要避免交通意外發生是它的使命,但最近這幾個月噩耗連連。三月,一位 49 歲的女性在亞利桑那州 Tempe 市過馬路時被 Uber 的一輛無人駕駛汽車撞死。幾周之后,一輛特斯拉 Model X 的車主在使用 Autopilot 半自動駕駛輔助系統時遭遇車禍當場身亡。上周,Waymo 的一輛自動駕駛休旅車被一輛本田轎車從側面撞上,當時本田轎車突然轉向駛入西行車道。
▌噩耗連連
與此同時,公眾對無人駕駛汽車越來越懷疑。監管者開始重新思考是否應該允許公司制造和測試全無人駕駛汽車。在外界的這些質疑聲中,Waymo 邀請我拜訪 Waymo 在加州山景城的總部,對該公司人工智能部門的高層進行深度訪談。
Waymo 總部在 X 實驗室內,后者是 Google 的高風險研究和開發實驗室,離Googleplex 主園區只有幾英里(2015 年,Google 改組為大型聯合企業 Alphabet,X 實驗室從 Google 當中分離了出去)。一年后,Google 的無人駕駛汽車項目“成功畢業”,成為了現在的獨立公司 Waymo。無人駕駛汽車團隊的工作地點仍然在母公司,但工作大樓與無人機送貨項目、互聯網熱氣球項目共享。
這座大樓之前是一個購物中心,典型的舊金山灣區建筑。唯一能讓人看出這是 Waymo 總部的是兩輛在停車場自動行駛的克萊斯勒 Pacifica 休旅車,員工們會趁著這兩輛車靠邊停車時在車前自拍。
Waymo 在自動駕駛領域遙遙領先于其他競爭者。它的行駛里程最多——600 萬英里的公路里程和 500 萬英里的模擬里程,收集了海量的大數據。Waymo 與菲亞特-克萊斯勒公司和捷豹、路虎公司這兩家汽車制造商是合作伙伴關系,并且還在與幾家汽車制造商洽談中。
目前,Waymo 正在德克薩斯州、加州、密歇根州、亞利桑那州和喬治亞州的道路上測試其汽車。Waymo 計劃在今年晚些時候在亞利桑那州推出全無人駕駛商業出租車服務。
▌Google園區的明星
現在,Waymo 希望讓人們都知道它在 AI 領域的優勢。本周,Waymo CEO John Krafcik 在 Google 年度 I/O 開發者大會上做了演講,他傳達的訊息很明確:相比其他汽車,Waymo 汽車看的更遠、感知更好、決策速度更快。
“全自動駕駛汽車真的是一個難題,因為它的能力要求和準確度要求非常高。而且乘客的體驗非常重要。”Waymo 首席技術官、工程部副總裁告訴我。
深度學習是機器學習的一種,它使用神經網絡的多層結構分析抽象程度不同的數據,是改進無人駕駛汽車感知能力和行為的最佳工具。Dolgov 稱:“我們很早就開始研究深度學習,AI 革命就發生在這里,發生在我們隔壁。”
Google 大腦團隊的 AI 專家定期會與 Dolgov 和他的工程師同事展開合作,共同探討改進 Waymo 無人駕駛汽車準確度的方法。最近,他們在一起探討一些熱門 AI 研究課題,例如自動化機器學習——使用神經網絡訓練其他神經網絡。Waymo 雖然是一家獨立的公司,但是如果想要給人留下一種無人能敵的印象,資歷更深、實力更強的 Google 能為其提供很好的支持。
Waymo 為什么會突然對宣傳其 AI 實力感興趣?
這與它試圖部署不需要人類駕駛員干預的無人駕駛汽車不無關系,此舉風險非常高。目前,Waymo 是唯一一家勇于承擔此風險的公司。業內其他公司正在奮起直追,試圖通過收購小型初創企業快速啟動自己的無人駕駛汽車項目。與此同時,Google 無人駕駛汽車團隊的一些重要成員受到巨大機會和財富的吸引,紛紛離開 Google 自立門戶。Google 正積極采取措施防止人才進一步流失。
Google 無人駕駛汽車團隊前成員和外界專家表示,Waymo 在無人駕駛領域的確搶得先機,但競爭者們最后很可能會追趕上它。因為 Waymo 并沒有完全稱霸無人駕駛汽車領域。
“盡管 Google 很強大,但是無人駕駛汽車領域需要更強的能力。”Google 無人駕駛汽車團隊前首席工程師 Dave Ferguson說,他在離開 Goolge 后成立了自己的公司 Nuro。
利用深度卷積神經網絡對ImageNet圖像進行分類
如今大火的無人駕駛領域在 21 世紀初期的時候是一番萎靡不振的景象。
程序員構建可以篩選大量的數據尋找共同模式的模型,這種模型就是神經網絡——機器學習的一種。當時神經網絡還沒火,正在完成從淺層網絡(2 層或 3 層)到深度神經網絡(十幾層到幾十層)的巨大轉變。雖然神經網絡這個概念是在 20 世紀 50 年代(AI 研究誕生的年代)提出的,但當時大多數電腦的性能還不足以處理所有的必要數據。
2009 年的 ImageNet 競賽徹底改變了這一切。
ImageNet 源于普林斯頓大學的幾名研究員在 2009 年于佛羅里達州召開的計算機視覺和模式識別大會上展示的一張海報(海報是在此類機器學習會議上分享信息的典型方式)。在此之后,ImageNet 成為一個圖像數據集,然后就出現了 ImageNet 競賽——看參賽者創造的算法能以最低的錯誤率識別出最多圖像。這個數據集有大約 1 萬張圖像,這些圖像被分為 1000 個類別,包括植物、建筑以及 90 種犬種。2011 年左右,算法的失誤率約為 25%,這意味著算法每識別四張圖像就有一張圖像識別錯誤。
人們找到了一種意想不到的解決方案:視頻游戲設備常用到的高性能圖形處理器(GPU)。Google 前語音研究員、現 AI 部門技術負責人 Vincent Vanhoucke 稱:“人們開始意識到這些 GPU 可以用于完成機器學習任務,它們特別適合用來運行神經網絡。”
最大的突破發生在 2012 年,AI 研究員 Geoffrey Hinton 和他的兩名研究生 Ilya Sutskever 和 Alex Krizhevsky 發現了一種新的解決方案:深度卷積神經網絡,他們在ImageNet 挑戰賽上證明這種網絡可以識別日常物品的圖像。他們創造的神經網絡網讓其他參賽者望塵莫及——其圖像識別錯誤率只有 16%,而其他方法的圖像識別錯誤率高達 25%。
▌“自此我們再沒回頭過”
“我認為這是基于深度神經網絡的方法第一次打敗常規方法。自此我們再也沒回頭過。”前 Google 工程師 Ferguson 稱。
Krizhevsky 在 2012 年 ImageNet 挑戰賽上擔任了較為重要的角色。他告訴我,“我認為我們當初是天時地利”。他將他們的成功歸因于他的愛好——對 GPU 進行編程使其可以運行團隊的神經網絡代碼,這使得他們可以在幾天的時間內完成原本需要幾月才能完成的實驗。Krizhevsky 稱,他在 ImageNet 競賽中使用了這項技術。
Vanhoucke 稱,Hinton 及其團隊的成功“觸發了一場雪球效應,并且催生了很多創新”,而且還直接促成了 Google 以未知數額收購了 Hinton 的公司 DNNresearch(包括Sutskever 和 Krizhevsky)。Hinton 留在了多倫多,Sutskever 和 Krizhevsky 去了Google 的山景城總部。Krizhevsky 加入了 Vanhoucke 的 Google Brain 團隊。Vanhoucke 稱,“這時候我們開始思考如何將這些技術應用到 Waymo 的項目中”。
Google 研究員 Anelia Angelova 是第一位找到 Krizhevsky 與其商討如何將他們的研究成果應用到 Google 無人車項目上的人。他們兩個人沒有在無人車團隊工作過,但是當時機會太好,錯過就太可惜了。他們創造了一個可以讓計算機學習行人模樣的算法,學習方法是分析數千張街景圖像并檢測表示行人的視覺模式。這種方法非常有效,Google 開始將這種方法應用到無人車項目的其他環節中,包括預測和計劃。
不過問題很快就出現了。新的系統錯誤率太高,往往會錯誤標注汽車、交通信號和行人,而且速度太慢,無法實時運行。于是,Vanhoucke 和他的團隊仔細檢查了這些圖像,他們發現大部分錯誤是由人類標注員造成的。Google 希望這些人類標注員可以提供一個衡量算法成功率的基準(或 ground truth),但是他們反而提升了錯誤率。無人駕駛汽車的問題還是歸咎于人類。
▌無人駕駛汽車的問題歸咎于人類
在糾正人為錯誤后,Google 還是很難修正系統,使其能迅速地識別圖像。AI 研究員和Google 的無人車團隊展開了緊密合作,他們決定引入更加傳統的機器學習方法,例如決策樹和級聯分類器(CascadeClassifier)。Vanhoucke 回憶道,用神經網絡實現“虛擬和現實世界中的最好結果”。
“我們成功地證明了用這些方法可以識別貓的照片和網上一些有趣的東西,我們當時非常激動。現在我們正在用這些方法改善無人車的安全性。”他說。
幾年后,Krizhevsky 離開了 Google,聲稱他對工作失去了興趣。他承認,“我當時抑郁了一段時間”。Krizhevsky 的離職讓他在 Google 的同事感到困惑,在那之后他的身上蒙上了一種神秘色彩。現在,Krizhevsky 好奇Google 早期的成功能否讓它在自動化領域中保持無法超越的優勢。其他汽車制造商和科技公司已經意識到機器學習的重要性,Waymo 的數據可能太過局限,無法在全球范圍的場景中應用。
Krizhevsky 稱,“我認為特斯拉在這方面有優勢,因為搭載自動駕駛硬件的特斯拉汽車的車主遍布全球,特斯拉可以從各種各樣的環境中收集數據。這點在機器學習算法泛化(generalize)時非常重要。因此我認為不考慮算法從數據的角度分析,特斯拉可能會領先“。”
AI 和機器學習對無人駕駛汽車非常重要。Waymo 的一些競爭者(包括 Google 無人車團隊前成員)想知道 Waymo 的優勢會持續多久。
特斯拉 Autopilot 部門前主管、自動駕駛研發公司 Aurora Innovation 聯合創始人(另一位為 Google 無人車項目前負責人Chris Urmson)Sterling Anderson 表示,AI 技術進步的自然結果就是 Waymo 等大公司“不再像以前那樣舉足輕重”。
換句話說,2018 年無人車領域的每個參與者從一開始就使用深度學習和神經網絡了。之前的領先者光環已經退去。早期的很多數據就像是過期的水果,已經無法食用。2010 年獲得的一英里駕駛數據肯定比不上 2018 年獲得的一英里駕駛數據。
Anderson 稱,“若干年之后數據的作用就沒那么大了。開始的時候,數據可以用于學習,幫助改進架構和算法。但是到了某一階段,幾百萬英里或幾十億英里的行駛數據就會變得沒那么重要。”
▌數據的作用沒那么大了
Waymo 的工程師也同意這一點。Waymo 機器學習和感知部門主管 Sacha Arnoud 表示,“就機器學習而言,有這樣一個增益遞減點。駕駛里程多 10 倍并不一定代表獲得的數據集更好,因為重要的是樣本數據的獨特性。”
換句話說,Waymo 累積的每英里駕駛數據都必須對其神經網絡的訓練過程有意義。當汽車遇到極端情景或其他特殊情景時(例如亂闖馬路的行人或平行泊車),Waymo 的模擬器會過濾這些數據,將其進行數千次迭代,用于進一步訓練神經網絡。
機器人也可能會被欺騙。對抗圖像或者用于欺騙機器視覺軟件的圖像可以被用來讓無人車受損或被撞毀。在停車路標上貼上貼紙,就可以讓機器視覺系統認為這是一個 45 英里/每小時的限速標志。
Google 訓練的一個識別日常物件的神經網絡最近就被騙了,它將一個 3D 打印的烏龜看成了一把槍。Waymo 的工程師表示,他們正在其系統中構建處理這些可能情景的相關組件。這引發了很多圍繞無人駕駛汽車的擔憂,包括黑客行為、勒索行為和隱私泄露。
路人橫穿馬路在中央隔離帶停下
路人橫穿馬路沒有中央隔離帶
建筑工人在檢查井工作
平行泊車
▌貓和狗的區別
Dolgov 坐在 Google X 實驗室的一間會議室里,手里拿著馬克筆,面前擺著一臺 MacBook Pro,讓我向他描述加菲貓和小狗歐迪(均為動畫角色)的不同。
在我結巴地回答之前,Dolgov 繼續說道:“如果我給你一張圖片,問你這是狗還是貓,你肯定很快就知道,對不?但是如果我讓你描述怎么得出那個結論,這可不簡單。你可能會認為這與那個東西的體型大小有關,貓和狗都有四條腿、一條尾巴和一只耳朵。但是這些特征都不明顯。”
Golgov 表示,這種問題是特別適合深度學習解決的問題。給出一大堆基本規則和參數很簡單,例如紅燈停綠燈行,教計算機區別不同類型的交通標志。教計算機從海量的傳感器數據中挑出某一位行人要比描述差異或用代碼表示差異更簡單。
Waymo 利用一種自動化程序和人類標注員訓練其神經網絡。在神經網絡經過訓練后,這些巨大的數據集還需要經過精簡和壓縮,這樣才能應用在 Waymo 無人車所在的現實世界中。這個程序與壓縮數字圖像類似,對構建基礎設施使系統擴展為全球系統很重要。
如果你觀察汽車攝像機捕捉到的圖像,然后將這些圖像放在利用汽車激光傳感器數據構建的相同場景匯總,你就會發現 Waymo 要處理的問題是如此繁雜。如果你從來沒見過LIDAR 效果圖,它就像是 Google 街景圖會變成讓人產生幻覺的黑光海報。
這些圖像可以提供無人車的鳥瞰視角,以及無人車“看到”的周圍畫面。行人在這些圖像上顯示為黃色矩形,其他車輛顯示為紫色正方形等等。Waymo 為動物分配有類別,例如“貓狗”、“鳥類松鼠”等(原來貓和狗的區別對無人車是完全沒有意義的)。但除了這些,Waymo 還在訓練其算法感知環境中不合常規的對象:下半身處在檢查井里的建筑工人;穿著馬道具服的人、站在角落旋轉箭頭標志的人。
▌非常規場景很重要
沒有人類駕駛員的干預,無人車必須適應典型駕駛環境中出現的奇怪元素。“非常規場景真的非常重要,對于無人車而言尤其如此。”
對無人車進行編程,使其對在白天橫穿馬路的行人作出反應是一回事,讓汽車感知橫穿馬路的行人并作出反應是另一回事。那行人在中央隔離帶停下怎么辦?Waymo 的無人車會謹慎做出反應,因為行人經常會在中央隔離帶停下或等待。如果沒有中央隔離帶怎么辦?無人車會將其識別為異常行為,完全減慢車速讓行人穿過馬路。Waymo 使用機器學習構建模型,讓其識別正常和異常行為并分別作出不同反應。
訓練神經網絡需要海量的數據。這意味著 Waymo 要積累數億條汽車標注數據。為了將這些標注數據應用到駕駛場景中,Waymo 的感知部門主管 Arnoud 預計,人為標注員每秒可以標注一輛汽車,標注 1 億輛汽車將需要 20 年的時間。如果沒日沒夜地標注,每秒可以標注 10 輛汽車,這就需要四個月的時間才能完成對整個數據集的標注。
現在 Waymo 的無人車只在鳳凰城郊外的封閉測試場地里進行測試,如果 Waymo 想讓它的無人車達到足夠的智能水平,則可以在任何環境和任何條件下行駛——Level 5 自動駕駛,有好的算法還不行,它還需要足夠強大的基礎設施擴展它的無人駕駛系統。Arnoud 將這稱為 AI 的“產業化”。
作為 Alphabet 旗下的一個子公司,Waymo 可以使用 Google 的數據中心訓練它的神經網絡。具體來說,Waymo 可以使用高性能的云計算硬件系統——張量處理器(TPU),這個系統由 Google 的一些最具野心和影響巨大的技術提供支持。
以前,Google 使用的是市場上能買到的 GPU(通常是英偉達產的GPU)。但是過去幾年間,Google 選擇自行開發和制造硬件,對軟件進行優化。Arnoud 表示,TPU 的速度要比 CPU 快好幾個數量級。
▌未來規劃
Waymo 對 AI 的未來規劃不是生產出有意識的汽車。Waymo 將致力于自動化機器學習(構建機器模型的過程是自動的)這樣的技術研究。“基本上,AI 機器學習就是創造替人類解決問題的其他 AI 模型的技術”。
對于在道路標志不清楚的區域行駛的無人車來說,這非常有用。如今最具挑戰的駕駛環境要求無人車必須能在沒有白線或明顯界線的情況下做出導航決策。如果 Waymo 能夠構建機器學習模型,訓練神經網絡在路標不清楚的道路上行駛,那么 Waymo 的無人車就可以駛出鳳凰城郊外,最終行駛在公路上。
-
神經網絡
+關注
關注
42文章
4771瀏覽量
100720 -
無人駕駛
+關注
關注
98文章
4055瀏覽量
120454
原文標題:進擊的 Waymo,掘進無人駕駛深水區
文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論