視線遮擋一直是自動駕駛很難攻克的問題。Occlusion,也就是視線遮擋,主要指因為建筑物、障礙物或是其他車輛遮擋視線,導(dǎo)致汽車無法做出最佳決策。在車輛轉(zhuǎn)彎時候尤為常見。
大家在玩吃雞的時候,都需要找遮擋物。子彈就好像自動駕駛車的雷達(dá)波束,只能到達(dá)直線以內(nèi)的范圍。障礙物后面的敵人就沒辦法打到了。
有什么辦法能讓你看穿遮擋物,做到提前預(yù)判呢?斯坦福大學(xué)和麻省理工各有各的方法,都可以用于自動駕駛。我們一起來看看。
非線性圖像識別 - 斯坦福大學(xué)
斯坦福圖像識別組這周剛剛在Nature發(fā)表了一篇論文“Confocal non-line-of-sight imaging based on the light-cone transform”,提出非線性圖像識別技術(shù)(Non-line-of-sight imaging)
首先,把雷達(dá)放在一個光子探測儀旁邊。雷達(dá)發(fā)出波束,就像普通自動駕駛車一樣。波束接觸到墻面,就會散發(fā)出余光。假設(shè)圖片里的右下角的兔子是我們需要探測到的行人。
普通自動駕駛車只會看波束返回時間,也就是到P點的時間,從而計算與自動駕駛車的距離。但是這次我們要看波束彈射出的余光。光子探測儀會捕捉這些余光。波束雖然沒有直接照在那只兔子上,但余光會按照一定順序彈在其他表面上。
將所有余光集中在一起,排除那些直接反射回的光束,剩下的就是來自遮擋物的。由此就可以還原出目標(biāo)物體的3D原型。現(xiàn)在的計算過程只需要1秒鐘,但是還不夠高效,現(xiàn)實駕駛環(huán)境需要司機在0.5秒內(nèi)做出反應(yīng)。
眼神會轉(zhuǎn)彎的攝像頭 - 麻省理工
看過了雷達(dá)技術(shù),我們再來看看自動駕駛車另一大傳感器:攝像頭。不知大家有沒有留心觀察過墻角的光線變化。肉眼大概能看出有一些深淺的區(qū)別。
麻省理工Media Lab最新研究出一種顏色處理方式。通過處理圖像,加強顏色差,不停變化顏色,就可以得到一連串的單向光線圖像。
假設(shè)現(xiàn)在墻后面有兩個行人,一個穿藍(lán)色,一個穿紅色,藍(lán)色衣服的人正在超過紅色衣服的人。我們看到的成像就會是這樣的。
原理很簡單。被遮擋的人雖然我們無法直接看到,但是他們還是會反射一部分光。紅色衣服的人和藍(lán)色衣服的人會有重疊的地方。通過一段時間觀察,繪制光線圖,就可以分析出有幾個物體在重疊。
這些發(fā)明除了自動駕駛也可用于其他領(lǐng)域,比如自然災(zāi)害后的搜救、醫(yī)學(xué)成像、航天、安保監(jiān)控等等。
-
傳感器
+關(guān)注
關(guān)注
2552文章
51240瀏覽量
754823 -
攝像頭
+關(guān)注
關(guān)注
60文章
4851瀏覽量
95926 -
雷達(dá)
+關(guān)注
關(guān)注
50文章
2951瀏覽量
117703 -
自動駕駛
+關(guān)注
關(guān)注
784文章
13877瀏覽量
166619
原文標(biāo)題:自動駕駛技術(shù)讓你更自信的吃雞
文章出處:【微信號:zidongjiashishuo,微信公眾號:自動駕駛說】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論