隨著汽車制造商逐步加快自動駕駛技術的部署和預研,一場沒有硝煙的戰爭開始從過去傳統的汽車制造車間向數據處理與運營服務平臺轉移。
從簡單的改裝幾輛自動駕駛測試車,到真正開始為未來智能駕駛汽車進行全生命周期的規劃,汽車主機廠必須開始考慮如何設計、構建和運行大規模訓練以深度學習為中心自動駕駛技術的數據中心。
深度神經網絡技術、大數據云端處理幾乎可以斷定將成為未來自動駕駛技術的核心組成部分,而一套完善的自動駕駛功能除了依靠大規模的常年積累的道路測試,依靠數據中心的仿真測試和深度神經網絡的訓練不可缺少。
除了特定的傳感器及決策技術之外,任何自動駕駛系統(包括車輛)的基礎都是數據。未來的汽車數據生態系統將包括來自車輛的數據、內置在道路上的傳感器、與附近車輛的通信、信息娛樂和其他來源。
這個數據生態系統非常復雜,涉及企業、平臺和政府的多方。在過去的二十年中,隨著汽車越來越依賴軟件,汽車制造商已經意識到數據的重要性。
目前在車輛中已經有相當多的傳感器,但數據類型、數據的復雜性、數據量與我們過去處理的相比,是驚人的。即使那些已經部署自動駕駛測試車的公司也只能收集非常少量的數據。
這其中除了數據中心的后臺處理,還包括車輛端側的數據處理能力的提升。近日,斯坦福大學的研究人員宣布一項能夠基于AI攝像頭來更快,更有效的進行圖像處理分類技術。
目前,搭載L3級以上圖像識別技術必須依賴于人工智能,同時在未來域控制器中運行深度學習算法的算力也要求太高,并且對于自動駕駛決策來說速度太慢。
這種新型的人工智能相機系統,能夠更快、更有效地對圖像進行分類,并且能夠以足夠小的體積以嵌入到端側傳感器設備中。未來的應用需要更快的速度和更小運算單元體積來處理龐大的圖像流。
這款AI原型相機的第一層是一種光學計算機,它不需要高能耗的傳統計算模式。第二層是傳統的計算處理。光學計算機層通過物理預處理圖像數據來操作,以多種方式對圖像數據進行濾波。
通過定制的光學器件,這一層處理幾乎是零能耗,這節省了系統大量的時間和資源,否則將被消耗計算資源。
其結果是計算量大大減少,對內存的調用更少,完成過程的時間也少得多。在跳過了這些預處理步驟之后,剩下的分析占用的計算資源就少很多。
在模擬和真實世界的實驗中,研究小組使用該系統成功地識別了飛機、汽車、貓、狗等在自然圖像設置內的物體。
實驗室正在研究如何使光學元件做更多的預處理。最終,他們更小、更快的技術可以取代現在幫助汽車、無人機和其他技術學會識別周圍環境的后備箱大小的計算機。
去年10月,Google在其發布會上推出了一款名為Google Clips的AI微型照相機,售價249美元。這款小巧的產品面向家庭場景,在功能上主要集成了機器學習技術,可對場景中的人物、寵物、環境等畫面進行識別和分析,能夠讓攝像頭發現適合拍攝的畫面時進行自動拍攝。
GoogleClips在機身內部搭載了一塊AI芯片,就是Intel旗下Movidius推出一款名為Myriad2的VPU(VisionProcessingUnit,視覺處理單元)。
Myriad2發布于2014年,作為一款視覺處理芯片,它的功能就是專門用于圖像處理;其特點在于功耗很低,能夠在半瓦的功耗下提供浮點運算功能,使用20納米的工藝進行制造。
這也讓行業看到了AI驅動攝像頭技術的提升空間,尤其是在端側的數據處理能力。
同樣在去年11月,亞馬遜AWS發布了一款名為DeepLens的人工智能攝像機,用以運行實時計算機視覺模型,為開發者提供機器學習的實踐經驗。
DeepLens擁有一顆計算能力為100gflops的英特爾凌動處理器,內置一顆400萬像素攝像頭,能夠拍攝1080p高清視頻。同時還具備8GBRAM、16GB可擴展存儲容量,用于視頻、預先訓練的模型和代碼的存儲。
軟件上DeepLens搭載了Ubuntu16.04LTS操作系統,且自帶AWSGreenGrass云服務功能。內置的對象識別功能可以識別寵物、日常物品、特定動作,還可以訓練AI模型識別更多的物體。
該攝像頭可以運行預先訓練或定制的人工智能模型來執行復雜的計算機視覺任務,如面部識別、情感分析或對象識別。
而在車載領域,不少初創公司和大公司也都在瞄準基于深度學習的攝像頭視覺系統的研發,一方面在視覺端提升數據處理能力,另一方面在攝像頭端進行數據預處理。
CalmCar(天瞳威視)目前推出的產品CalmCar Vision System,就是一套基于“深度學習技術”的人工智能視覺系統,搭載微型嵌入式芯片(GPU),擁有針對汽車視覺系統設計優化的深度學習架構。
這套視覺系統以提高部分遮擋物體的識別精度,解決了形變物體的識別問題,減少了光線變化對物體識別的精度影響。
多于30幀每秒的實時檢測率,可實現140米車輛檢測(可追蹤到170米)、70米行人以及騎車人檢測(追蹤到80米)、80米行車線檢測與追蹤、路牌路標的檢測與識別以及交通燈的檢測與識別。
今年初,日本三菱公司推出了采用了自主研發的Maisart AI的新車載攝像頭(用于替代傳統外后視鏡),它能夠準確地區分行人、汽車和摩托車。后續版本還將解決惡劣天氣、夜晚和曲折的道路上的性能表現。
Maisart AI是基于計算視覺認知模型的相對簡單的算法為實時性能釋放系統資源,為低成本設備實現緊湊型的人工智能處理能力。
以每秒60幀運行的2百萬像素相機為例,每秒產生大約500兆字節的數據量。這些數據需要很快地分析和處理,以便實時響應。尤其是目前L2級以上自動駕駛每輛車配置的攝像頭數量接近5-12個(包括車內車外),數量處理量巨大。
基于攝像頭前端的數據處理模式,可以大幅降低數據傳輸和中央數據處理的占用。視頻分析算法可以在未經壓縮的原始圖像上運行,然后通過以太網進行編碼和傳輸。視頻分析ADAS算法也不會遭受在壓縮期間可能引入的任何噪點,并且保持它們的精度。
當處理移入前端攝像頭模塊時,入門級車型可以用較低成本的控制單元(ECU)。當客戶選擇例如駕駛員監視或自動停車選項時,攝像頭模塊可以簡單地插入,并且不要求汽車制造商也將控制單元升級到更高性能、更高成本。這降低了車輛的總成本。
隨著未來車輛搭載攝像頭數量增加,以及相互之間數據處理量增大,如果沒有在攝像頭前端內部進行預處理,性能瓶頸將不可避免地出現在中央計算單元上。
一家位于德國的嵌入式視頻處理器公司videantis,推出的嵌入式視頻處理器體系結構可以以更快的速度和更低的功率水平執行這些復雜的機器視覺和圖像處理任務,使得該技術能夠嵌入到較小的ECU中,甚至直接嵌入到攝像頭中。
videantis在今年初推出的新的V-MP6000UDX處理器,包括為運行卷積神經網絡而優化的擴展指令集,提供的v-CNNDesigner工具,可以方便地移植使用諸如TensorFlow或Caffe等框架設計和訓練的神經網絡。
使用這個工具,實現神經網絡的任務是完全自動的,并且只需要幾分鐘就可以使CNN在低功耗視頻處理架構上運行,并且可以在同一平臺上運行深度學習、計算機視覺、視頻編碼和成像。
相比目前市面上的同類產品,videantis可以做到在單一芯片架構上實現CNNs的全部層處理,而無需額外添加深度學習加速模塊。
-
神經網絡
+關注
關注
42文章
4773瀏覽量
100890 -
車載攝像頭
+關注
關注
5文章
138瀏覽量
28095 -
深度學習
+關注
關注
73文章
5507瀏覽量
121272
原文標題:車載攝像頭可以賣的貴一些 ,但要有料 | GGAI頭條
文章出處:【微信號:ilove-ev,微信公眾號:高工智能汽車】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論