2018年6月21-22日,由布谷鳥科技、佐智汽車主辦,艾拉比智能、ADI亞德諾半導體、索喜科技贊助支持的“2018第二屆智能座艙與智能駕駛峰會”在深圳福田區綠景錦江酒店舉辦。來自哈曼研究部(中國)總監張青山在會上做了《三星哈曼自動駕駛前景展望及解決方案》的主題演講。
哈曼 張青山
張青山:很高興有機會和大家分享三星哈曼在自主駕駛領域對未來的展望,以及我們已經做的工作。希望和大家一起推動自動駕駛技術在市場的落地。
幾年前,智能網聯汽車還是比較新的話題,主流的車廠都持保留的態度,懷疑它能不能在現有的技術下成為現實。今天,自主駕駛已經深入人心,成為被工業界廣泛接受的概念,現在大家的話題是在什么時候實現什么級別的自動駕駛。
主機廠自動駕駛規劃
根據我們收集到的信息,各個廠商在自主駕駛上的規劃,可以看到現在的機會出現在L3級別的自主駕駛產品。大量廠商,包括前期的先行者像谷歌、特斯拉,包括互聯網企業和新型造車勢力,更重要的是傳統車廠也廣泛接受這個概念。我們可以看到大量傳統的汽車廠商已經加入這個陣營,有明確的量產計劃。
實際上現在的機會主要是在L3級別,為什么現在是L3的時代?L3是自動駕駛從量變到質變的分水嶺,L3對人類駕駛員的依賴會減少,主要由機器完成自主駕駛。L3的要求是系統的駕駛任務無法完成的時候,能安全的把駕駛任務交給人類駕駛員,奧迪的第一款L3產品要求8-10秒給到人類駕駛員。如果人類駕駛員無法接手,怎么辦?他在走神或者有其他狀況,L3是無法安全把駕駛任務交給人類駕駛員時,它能夠自動剎車,自動的做出處理,會靠邊安全的停下來,而不是強迫人接管。L3現在是市場的機會。為什么是L3而不是直接進入L4,丟掉方向盤、剎車板、加油板?這是受到現有技術的限制和成本限制。
我們瀏覽一下最近幾年自主駕駛的安全事故。
第一個是2016年Google第一次責任事故,我們知道Google的自主駕駛技術有很好的安全記錄,但是2016年2月發生第一次責任事故。因為它沒有理解人類的行為,當時它在往前行駛的時候看到路上有修路用的沙包,于是決定換道。同時發現左后方有校車,它認為校車應該讓它變道,實際上人類駕駛員沒有讓它變道,所以Google換道發生碰撞,這是自主駕駛汽車不夠智能的案例。
第二個案例是一個悲劇,特斯拉的那次事故,因為兩項傳感器都沒有檢測出大貨車,所以它毫不猶豫的撞上去了,最后發生致死的事故。這是對環境的感知不夠。
第三個案例發生在去年年底,剛剛在拉斯維加斯一個通勤小巴,剛剛進入商業運營兩個小時就發生事故,它的環境感知是OK的,能夠檢測出這個大貨車。但是被人詬病的地方是發現大貨車之后停車,沒有像人類駕駛員一樣后退或者鳴笛,這輛自主駕駛汽車只是靜靜待在那里,不做反應,說明它對人類駕駛員或者對公路上的其他移動物體的理解是遠不夠智能的。這點是趕不上人類的。
第四個是Uber的案例,經過調查報告發現,Uber無人車已經檢測到推自行車的人,在比較長的距離里面,它的控制系統沒有做出任何反應,雖然很好的檢測到這個人,為什么沒有做出反應?據說是因為它的傳感器誤檢率太高,車頻繁剎車,工程師受不了,就關掉傳感部分和控制部分的聯系,所以它的控制部分沒有做出任何行動,最后發生了這次悲劇。這是對駕駛環境感知的缺失造成了這些事故。
案例分享之后,考慮一下為什么只能在L3,還不能演進到L4?我們總結出兩個最大的挑戰。
自主駕駛面臨的兩大挑戰
一是高精度的環境感知技術,現在借助毫米波雷達、攝像頭、激光雷達,可能還無法做到高精度的環境感知。固態激光雷達還無法把成本降到量產化的水平,所以現在的環境感知會遇到比較大的挑戰。
二是我們剛才提到的人工智能技術。無論是環境感知還是人工智能,我們都知道它需要大量的計算,而且是數據密集型的計算。我們知道車載傳感器會產生巨量的數據,同時人工智能方面,深度學習的層數,比較典型的是上百層或者幾百層以上的學習,要求的計算量巨大。數據密集型的計算能力也是自主駕駛面臨的巨大挑戰。
深度學習在近幾年獲得比較大的成功,主要在于它對圖像的理解和識別上獲得比較大的成功,我們把深度學習技術應用到研究和產品里面。這是我們利用深度學習網絡做的基于攝像頭環境感知的研究項目。可以看到通過攝像頭拍的照片,我們對路上的物體速度、距離做出估計,同時也對場景做了語義分割;我們區別出哪些是道路上的運動物體,哪些是可以行駛的路面,哪些是非行駛路面。藍色的是道路上的物體,深紫色是道路,其他顏色是非行駛區域。這是上海高架路上拍攝的真實視頻,我們對它做了實時處理。大家可以看一下。(視頻播放)
通過對道路上移動物體做出距離和速度的估計,同時對道路場景做了語義分割,我們可以明確分辨出可行駛區域和運動的物體,這樣自主駕駛汽車可以根據得到的環境感知信息做出相應的駕駛決策。
當前的人工智能技術,剛才談到最成功的應用是在駕駛環境感知上的應用,目前人工智能不足的地方在哪里?當前用于自主駕駛的人工智能依賴于龐大的數據完成微小的任務,比如有大量的傳感器數據,用這么多傳感器數據只能做到車道保持或者自主換道這些非常簡單的任務。這對未來的L4或者L5級別的自主駕駛汽車是遠不夠的,我們希望未來的AI、未來的自主駕駛AI是基于少量數據的,但是能夠完成復雜任務的人工智能。
給大家分享一只烏鴉的智能給我們的啟示,這是日本的生物學家拍到的一系列照片。一只來到城市的烏鴉要覓食、吃堅果,它的嘴巴打不開堅果,堅果掉到路上可以被汽車壓碎,可以吃到果仁。但是快速行駛的汽車會給它帶來傷害。它就在電線上觀察,觀察之后得到結論,在紅燈亮起的時候去馬路上吃堅果(就會比較安全)。烏鴉的智能遠超過現有自主駕駛汽車的智能,包括剛才分享的Google自主駕駛的智能,和拉斯維加斯運營的NAVYA無人車的智能。我們希望未來自主駕駛的智能能達到這樣的水平,或者向這樣的水平前進。
未來的自主駕駛汽車要有什么樣的特征?首先是準確的環境感知能力,其次是具備一定數量的常識,這個常識包括物理常識和社會常識。基于少量社會數據,在任務的驅動下,給他一個復雜的任務,告訴他起點和目的地。
我們只是交給它這么一個任務,就能夠在自己的駕駛過程中去自我學習和自我進化。前面若干次駕駛的效率或者安全性沒有那么高,但是執行任務過程中不斷的進化,像那只烏鴉一樣學會更有效的方法,最終能夠很好的完成駕駛任務,這才是我們希望的未來自主駕駛技術。這樣的技術也是基于大量的計算。
三星哈曼在自主駕駛技術領域的努力
前面談到未來自主駕駛技術的展望和愿景,下面跟大家分享三星哈曼在自主駕駛技術領域做的努力。大家知道去年9月份在法蘭克福車展上,三星第一次宣布介入自主駕駛領域,同時宣布成立3億美金的自動駕駛投資基金。這些投資分布在跟自主駕駛領域相關的很多技術領域,包括大家都比較關心的車載傳感器、域控制器、功能安全等方面。
三星第一筆自動駕駛投資給了TTTech,為什么第一筆投資給TTTech?這是奧迪A8,是全世界第一款成功量產的L3汽車,這款汽車的域控制器就是奧迪和TTTech合作完成的。這個項目檢測出TTTech這家做航空安全的奧地利公司的功能安全技術在業界領先,而且是可以在自主駕駛領域得到很好效果的公司,所以三星第一筆投資給了TTTech。TTTech和三星合作推出三星的自主計算平臺DRVLINE。
2018年初的CES大會上,三星正式公開了自動駕駛平臺DRVLINE,DRVLINE域控制器有很多特性:
一是開放性,硬件架構、軟件架構上都是一個開放的系統。硬件的提供商,比如芯片商可以把高性能芯片集成到系統里面去。同樣的各個軟件模塊,像高精度地圖模塊、數據處理模塊或者數據融合的模塊以及駕駛決策模塊都可以集成到DRVLINE平臺里面去。
二是模塊化,這是TTTech的強項,對功能安全和功能模塊劃分的技術是很強,TTTech和三星一起合作的產品就是對軟件功能做詳細的劃分,并把它們限定到一定的計算資源里面。重要的軟件功能會運行在自己的計算資源范圍內,互相之間不會有沖突,保證最重要的安全功能能夠得到足夠的計算資源。
三是可擴展性,我們剛才提到了,自主駕駛面臨一大挑戰是數據密集型的計算,DRVLINE平臺有很好的平臺擴展能力。
這是我們關注的幾個領域。域控制器主要關注巨量計算能力,傳感器領域三星投資了很多傳感器公司,包括固態激光雷達公司。算法方面,三星和哈曼一起做了很多積累,云服務和用戶體驗都是我們平臺關注的技術。
剛才提到DRVLINE的擴展性,可以通過兩個擴展的插槽接入更強大的計算能力,這是為未來的自主駕駛從L3到L5準備的計算平臺。
環境感知方面,三星哈曼也做了努力,我們推出了高性能的前置攝像頭,這個攝像頭有100度的視角范圍,而且可以探測到前方160米的距離30厘米直徑的物體。這樣的環境探測能力對自主駕駛非常有利。
三星、哈曼以及TTTECH三方合作組建自主駕駛研發團隊,三星利用它在半導體技術上的優勢,處理芯片的優勢,搭建DRVLINE計算平臺。TTTECH利用安全技術領域的優勢來為這款產品打造中間件。哈曼作為Tier1,有強大的系統集成能力和車載能力,以及我們以前在自主駕駛上做的研究積累,三方一起來打造DRVLINE平臺,把它推向世界市場。
-
半導體技術
+關注
關注
3文章
240瀏覽量
60771 -
自動駕駛
+關注
關注
784文章
13915瀏覽量
166774 -
智能網聯
+關注
關注
4文章
607瀏覽量
23294
原文標題:哈曼張青山:三星哈曼自動駕駛前景展望及解決方案
文章出處:【微信號:zuosiqiche,微信公眾號:佐思汽車研究】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論