3D和“全息影像”這些詞聽得大家耳朵都起繭了。從松下在2010年發(fā)布首個3D電視系統(tǒng)起,到現在的虛擬現實和增強現實技術,這些詞已經融入到我們的流行文化中,越來越成為我們所關注的焦點。畢竟現實世界是立體的,我們又何必把自己的體驗限制在平面的屏幕上呢?
從2D過渡到3D是一個自然的過程,正如上世紀50年代的時候,黑白電影和黑白電視轉變?yōu)椴噬粯印5窃诤芏喾矫鎭砜矗瑥?D到3D帶來的影響或許會更大。
3D的意義并不只是為了呈現更加可信的真實世界,而是將數字世界變成現實生活的一部分,讓它的每一個細節(jié)都變得像現實世界一樣真實。
這個即將到來的分水嶺將對我們的工作、學習、社交和娛樂方式產生深刻的影響。我們將能突破現實世界的物理限制,我們的想象力有多大,世界就有多大。
當然,這個轉變也會影響我們使用的設備,以及我們與機器的交互方式。這也是為什么谷歌、Facebook和蘋果這樣的公司都在盡快搶占3D市場的原因:誰贏得了3D戰(zhàn)爭,誰就能掌握下一代用戶交互的控制權。
但現在這還只是一個憧憬而已。盡管之前已經有人試過打開3D市場,但是我們仍不得不依賴狹窄的屏幕來進入電子世界。為什么?因為現在的3D存在著許多不足,目前的技術水平還不足以實現一個真實可信的世界,所以消費者還在繼續(xù)等待。
接下來YiViAn想以用戶的角度向你全面地介紹3D技術,VR/AR頭顯和裸眼3D顯示屏等3D產品正在面臨的挑戰(zhàn),以及這些產品將如何成為我們與數字世界之間的直觀交互界面。
我們?yōu)槭裁葱枰S畫面?
在深入了解3D技術之前,我們需要先理解這項技術的原理。
你可以試一下瞇著一只眼鏡來穿針,你會發(fā)現這比你想象中的更困難。進化已經改變了人類對3D的感知,讓我們可以更快更準確地掌握現實世界的信息。
我們是如何在生理層面上獲取深度感知的?這是一個復雜的課題。人類的眼睛和大腦可以感受到很多深度提示,當這些提示在現實世界中出現的時候,它們之間會互相加強,在我們的腦海中形成清晰的3D環(huán)境圖像。
立體視覺(雙眼視差)
如果我們想用一個3D錯覺來欺騙視覺系統(tǒng)和大腦,我們可能無法真實地重現所有的深度提示,這樣形成的3D體驗會有所偏差。因此,我們需要理解一些主要的深度提示。
無論你相不相信,你的兩只眼睛所看到的東西是不一樣的。它們看物體的角度會有細微的不同,所以視網膜得到的圖像也會有所差別。
我們看遠處的物體時,左右眼睛之間的視差會比較小。但在物體較近的時候,視差便會增大。這個差別可以讓大腦測量和“感受”到物體的距離,觸發(fā)對深度信息的感知。
現在大部分的3D技術都是依靠立體視覺來欺騙大腦, 讓大腦相信自己感受到了深度信息。這些技術會向兩只眼睛呈現不同的圖像,如果你看過3D電影的話(例如《阿凡達》和《星球大戰(zhàn)》),那你應該已經通過3D眼鏡體驗過了這種效果。
更為先進的“自動立體”顯示技術可以將不同圖像以不同的方向投射到空間中,這樣眼睛就能接收到不同的圖像,不需要佩戴眼鏡。
立體視覺是最明顯的深度提示,但它不是唯一的線索。人類其實只通過一只眼睛也能感受到深度。
閉上一只眼睛,然后將食指放在另一只眼睛前面保持不動。現在稍微將頭上下左右地運動。這時你會看到背景好像是在相對手指運動。更準確地說,看上去是你的手指比背景移動得更快。
這種現象叫做運動視差,這是你可以使用一只眼睛感受到深度的原因。如果要提供真實的3D感受,運動視差是一個很重要的效果,因為觀眾與屏幕的相對位移是非常輕微的。
沒有運動視差的立體視覺仍然可以讓你感受到深度,但是這種3D圖像會出現變形。例如在3D地圖中的建筑物會開始出現扭曲, 背景的物體看上去好像是被前景的物體故意遮擋一樣,如果你仔細看的話會覺得相當難受。
運動視差跟我們的視覺感受密切相關——事實上我們所看到的近大遠小效果正是一種深度提示。
就算你正在完全靜止地坐著(沒有運動視差), 然后閉上一只眼睛(沒有立體視覺),這樣你仍然可以分辨遠處和近處的物體。
這時再嘗試上面的手指實驗,將你的食指放在眼前靜止不動,然后聚精會神地盯著這根手指。在眼鏡聚焦的過程中,你會發(fā)現背景會變得模糊。現在將你的焦點放在背景上,你會發(fā)現手指變得模糊,而背景變得清晰了。這跟現代照相機的工作原理是一樣的,我們的眼睛具有改變焦點的能力。
眼睛是通過睫狀肌的收縮來改變晶狀體的形狀,從而達到變焦的功能。
那么眼睛的睫狀肌是怎么知道應該用多大的力氣來收縮的呢?答案是我們的大腦有一個反饋回路,睫狀肌會不斷地收縮和舒張,直到大腦得到最清晰的圖像為止。這其實是一個瞬間完成的動作,但如果過于頻繁地調節(jié)睫狀肌的話,我們的眼睛會感到很疲勞。
只有在距離兩米以內的物體才能觸發(fā)睫狀肌的運動,超過這個距離,眼鏡就會開始放松,將焦點放在無限遠處。
視覺輻輳與視覺調節(jié)的沖突
當你的雙眼聚焦于附近的一個點時,它們其實會在眼眶中旋轉。集中視線的時候眼外肌會自動伸展,大腦可以感受到這個動作并且將其視為一種深度提示。如果你把焦點放在10米以內的物體上,你會感受到眼球的會聚。
所以當我們用兩只眼睛看世界的時候會用上兩組不同的肌肉。一組肌肉負責讓雙眼會聚(輻輳)到同一個焦點上,而另一組肌肉則負責調節(jié)視網膜成像的清晰度。如果眼睛輻輳不當,那我們就會看到雙重影像。如果視覺調節(jié)不當,那我們就會看到模糊的影像。
在現實世界中,視覺輻輳和視覺調節(jié)是相輔相成的。事實上,觸發(fā)這兩種反應的神經是相連的。
不過在觀看3D、虛擬現實或者增強現實的內容時,我們通常都會將焦點放在特定的位置上(例如3D影院的銀幕),但是雙眼接收到的信息會讓雙眼會聚到另外的距離(例如從銀幕沖出來的巨龍)。
這時我們的大腦將難以協(xié)調這兩種沖突的信號,這也是有些觀眾在觀看3D電影的時候會感到眼睛疲勞甚至是惡心的原因。
你還記得那些用卡紙做成的紅藍立體眼鏡嗎?這種“濾光眼鏡”可以讓讓左眼只看到紅光,右眼只看到藍光。通常的立體圖像會在左眼疊加一層紅色的圖像,在右眼疊加一層藍色的圖像。
當我們通過濾光眼鏡觀看的時候,大腦的視覺皮層會將所看到的圖像融合認為是三維場景,而且畫面的色彩也會被修正。
現在所有基于眼鏡實現的3D效果,包括虛擬現實和增強頭顯都是利用這樣的工作原理——通過物理方式分離左眼和右眼所看到的影像來營造立體視覺。
你現在去看電影的時候會拿到一副看上去完全不像偏光眼鏡的3D眼鏡。這種眼鏡并不會根據顏色來過濾圖像,而是根據光的偏振來過濾圖像。
我們可以把光子想象成一種會振動的實體,它們會沿著水平方向或者垂直方向振動。
在電影屏幕上,一個特制的投影儀會生成兩幅互相重疊的圖像。其中一幅圖像只會向觀眾發(fā)射水平振動的光子,而另一幅圖像則會發(fā)送垂直振動的光子。而這種眼鏡的偏光鏡片可以確保兩幅圖像可以分別到達相應的眼睛。
如果你有一副偏光眼鏡(不要從電影院偷出來哦),你可以用它來觀看現實世界的偏振。把這副眼鏡保持在你視線2英尺的距離上,然后通過它來觀看汽車擋風玻璃或者水面。在你將眼鏡旋轉90度的過程中,你應該會看到穿過鏡片的眩光的出現和消失。這就是偏光鏡的工作原理。
偏光鏡可以允許所有的彩色色譜進入到眼睛中, 這樣子3D畫面的質量也會得到增強。
從3D影像質量來看,這種眼鏡只能提供立體視覺這一種深度提示。所以盡管你可以看到圖像的深度,但如果你離開座位在電影院內走動的話,你將會看不清周圍的物體,背景會以與運動視差相反的方向移動,也就是像是會跟著你一樣。
還有一個更嚴重的問題是這種眼鏡缺乏視覺調節(jié)的支持,這會導致視覺輻輳和調節(jié)之間產生沖突。如果你盯著一條龍從屏幕向你靠近,你很快就會感受到極度的視覺不適。
這也是為什么電影中的龍只會非常快速地飛過——這樣做只是為了達到驚嚇的效果,同時避免你的眼睛感到不適。
如果你家里有一臺3D電視的話,它配套的眼鏡可能不是偏光類型的,而是采用了“主動快門”的技術。這種電視會交替顯示右眼和左眼的圖像,而眼鏡會按照電視的頻率同步遮擋相應的眼睛。如果切換的頻率足夠快的話,大腦可以將這兩種信號混合成一幅連貫的3D影像。
為什么不使用偏光眼鏡呢?雖然有些電視會采用這種技術,但是不同方向的偏振圖像必須來自不同的像素,所以觀眾看到的圖像分辨率會減半。(但是電影院里的兩幅圖像是分別投影在屏幕上的,而且它們可以互相重疊,所以不會導致分辨率下降。)
主動快門式3D眼鏡一般只能支持立體圖像這一種深度提示。一些更加先進的系統(tǒng)會采用追蹤技術來調整內容,通過追蹤觀眾的頭部實現運動視差的支持,但是只能用于一位觀眾。
虛擬現實是一種全新的3D渲染類型。這項技術最近得到了廣泛的關注。現在已經有很多人體驗過虛擬現實頭顯了, 而未來幾年將有更多的人能夠體驗到這項技術。那么, 虛擬現實的工作原理是什么呢?
VR頭顯不是通過過濾來自外部屏幕的內容來工作的,而是生成自己的雙眼圖像,并直接呈現給相應的眼睛。VR頭顯通常包含兩個微型顯示器(左眼一個,右眼一個),它們現實的頭像會經過光學元件的放大和調整,并顯示在用戶眼前的特定位置上。
如果顯示器的分辨率足夠高的話,圖像的放大比例也會更高,這樣用戶就會看到更廣闊的視場,而沉浸體驗也會更好。
現在像Oculus Rift這樣的虛擬現實系統(tǒng)會追蹤用戶的位置,為立體視覺增加運動視差效果。
目前版本的虛擬現實系統(tǒng)并不支持視覺調節(jié),并且容易造成視覺輻輳和調節(jié)的沖突。為了確保用戶體驗,這個技術難題是必須要解決的。這些系統(tǒng)現在也不能完全解眼鏡動作的問題(范圍有限和失真),但是這個問題未來可能會通過眼球追蹤技術來解決。
同樣的,增強現實頭顯也變得越來越普遍。增強現實技術可以把數字世界和現實世界融合在一起。
為了確保真實感,增強現實系統(tǒng)不僅需要追蹤用戶在真實世界的頭部運動,同時也要考慮自己所在的現實3D環(huán)境。
如果Hololens和Magic Leap最近的報道是真的話,增強現實領域現在已經出現了巨大的飛躍。
正如我們的兩只眼睛看到的世界會有所不同,現實世界的光線也是從不同的方向進入瞳孔之中的。為了觸發(fā)視覺調節(jié),近眼顯示屏必須能夠模擬獨立從各個方向發(fā)射的光線。這種光信號被稱為光場,這是虛擬現實和增強現實產品未來的關鍵。
在實現這種技術之前,我們只能繼續(xù)忍受頭痛了。
這些是頭顯設備需要克服的挑戰(zhàn),它們面臨的另外一個問題是融入社會和文化(比如Google Glass的遭遇)。如果想同時以多個視角顯示世界,我們則需要利用裸眼3D顯示系統(tǒng)。
如果不佩戴任何設備,我們可以如何體驗3D圖像呢?
看到這里, 我想你應該明白如果想提供立體視覺,3D屏幕必須朝著不同的空間方向投射出不同視角的影像內容。這樣子,觀眾的左眼和右眼將會自然地看到不同的圖像,從而觸發(fā)深度感知,因此這種系統(tǒng)被稱作“自動立體顯示”。
因為3D圖像是依靠屏幕投射的,所以只要3D效果不是太夸張的話,自動立體顯示本身可以支持支持視覺輻輳和視覺調節(jié)。
但是這并不代表這種系統(tǒng)不會造成眼睛不適。事實上,這種系統(tǒng)在不同視覺區(qū)域的轉換方面也有另外一個問題。
這種系統(tǒng)的圖像會出現頻繁的跳躍、亮度變換、暗帶、立體視覺中斷等問題,最糟糕的是左右眼看到的內容被顛倒,導致完全相反的3D感受。
那么我們應該如何解決這些問題呢?
3M公司在2009年開始對這項科技進行商業(yè)化生產。
棱鏡膜會被插入到普通LCD屏幕背光的薄膜堆棧之中,可以分別通過來自左右某一方向的光線來照亮,當光源來自左邊的時候,LCD的圖像將會在投射在右邊的區(qū)域, 當光源來自右邊的時候,圖像會在左邊的區(qū)域投射。
快速切換光源的方向,并按照同樣的頻率改變左右眼看到在LCD看到內容,這樣可以產生立體視覺,但是前提是屏幕需要放在觀看者的正前方。如果通過其他視角觀看的話,立體效果將會消失,圖像也會變會平面。
因為觀看的范圍非常有限,所以這種顯示技術通過稱為“2.5D”。
在一個2D屏幕上面加入一塊被開了許多小口的遮蓋層,當我們通過這些小口觀察屏幕的時候,我們不能看到下面的所有像素。我們能夠看到的像素實際上取決于觀看角度,觀察者的左眼和右眼可能會看到不同的像素組。
“視差屏障”這個概念早在一個世紀以前就被發(fā)現了, 夏普在十年前首次將其投入到了商業(yè)應用。
經過改良,現在這項技術采用了可切換的屏障,這實際上是另一個活動的屏幕層,它可以產生屏障效果,也可以變?yōu)橥该鳎瑢⑵聊换謴偷?D模式,以顯示完整的分辨率。
早在2011年的時候,HTC EVO 3D和LG Optimus 3D就已經登上頭條了,因為它們是全球率先支持3D功能的智能手機。但它們其實只是2.5D技術的另一個例子,只能在非常狹窄的視角范圍提供3D效果。
從技術上講,視差屏障可以不斷擴展形成更寬的視角。但問題是視角越寬,你所需要屏蔽的光線就越多,這樣就會造成耗電量過大的問題,尤其是對于移動設備來說。
在一個2D屏幕上面覆蓋一層微型凸透鏡,我們都知道凸透鏡可以聚焦來自遠處光源的平行光,小孩子用放大鏡點著東西也是利用了這個原理。
這些透鏡可以收集從屏幕像素發(fā)出的光線,并將其轉變?yōu)榫哂蟹较虻墓馐N覀儼堰@個現象稱為準直(collimation)。
光束的方向會隨著透鏡下方的像素位置而改變。這樣的話,不同的像素將會跟隨光束投射到不同的方向上。柱狀透鏡技術最終可以達到視差屏障同樣的效果(都是利用在不同的空間位置看到的像素組不同的原理),只是柱狀透鏡不會遮擋任何的光線。
那為什么我們在市面上沒有看到柱狀透鏡3D屏幕呢?
這不是因為沒有人嘗試,東芝就在2011年在日本發(fā)布過第一代系統(tǒng)。但是這種屏幕在仔細觀看的時候會出現了一些難以接受的視覺假象,這主要是由透鏡產生的問題。
首先,屏幕像素通常都是由一個面積較小的發(fā)射區(qū)和一個面積較大的“黑色矩陣”組成的,后者是不發(fā)光的。在經過透鏡的處理之后,單個像素的發(fā)射區(qū)和黑色矩陣會被偏折到空間的不同方向。這樣會導致3D畫面出現非常明顯的黑色區(qū)域。唯一能解決這個問題的方法是對透鏡進行“散焦”,但是這樣做會導致不同視角之間的干擾,圖像也會變得模糊。
其次,只用單個透鏡是很難在廣視角下達到合適的準直的。這也是相機鏡頭和顯微鏡會使用復合透鏡而不是單透鏡的原因。因此柱狀透鏡系統(tǒng)只能在較窄的視角(大約20度)觀察到真正的運動視差。超出這個范圍的話,3D圖像就會不斷重復,感覺就像觀看的角度不對一樣,圖像也會變得越來越模糊。
較窄的視場和糟糕的視覺轉換是柱狀透鏡屏幕的最大缺陷。對于電視系統(tǒng)來說,如果觀眾會自動調整他們的頭部并且不會走來走去的話,那么現在的柱狀透鏡技術是可以接受的。
但是在手機和汽車這樣的使用場景下,頭部是肯定會有移動的,這樣柱狀透鏡系統(tǒng)就很難達到理想的效果了。
那么,我們應該如何設計含有寬廣視場和流暢轉換的裸眼3D視覺系統(tǒng)呢?
如果我知道你的眼睛和屏幕之間的相對位置,我可以計算出相應的視角,并嘗試將圖像調整至眼睛的朝向。只要我能快速地檢測到你的眼睛的位置,并且有同樣快速的圖像調整機制,那我就能確保你在任何視角都能看到立體視覺,以及平滑的運動視差渲染。
這就是眼部追蹤自動立體屏幕的運作原理。
這種方法的好處是:屏幕在任何時刻都只需要渲染兩個視角的畫面,這樣可以保持大部分的屏幕像素。從實際的角度上講,眼部追蹤系統(tǒng)可以結合目前視差屏障技術一起使用,避免柱狀透鏡系統(tǒng)產生的光學假象。
但是眼部追蹤并不是萬能的。首先,它每次只能支持一個觀眾,而且,眼睛的追蹤需要設備配置額外的攝像頭,以及在后臺持續(xù)運行用于預測眼睛位置的復雜軟件。
對于電視系統(tǒng)來說,尺寸和功耗不是一個大問題,但是這會對移動設備造成巨大的影響。
此外,即使是最好的眼部追蹤系統(tǒng)也會出現延遲或者錯誤,常見的原因包括燈光的改變,眼睛被頭發(fā)或眼鏡遮擋,攝像頭檢測到另外一雙眼睛,或者是觀眾的頭部運動得太快。當這個系統(tǒng)出現錯誤時,觀眾會看到非常不適的視覺效果。
裸眼3D技術的最新發(fā)展是衍射“多視角”背光LCD屏幕。衍射是光的一種特性,光線在遇到亞微米物體時會出現偏折,所以這就意味著我們要準備進入納米技術的領域了。
你沒看錯,就是納米技術。
普通的LCD屏幕背光會發(fā)出隨機分布的光線,也就是每個LCD像素都會向廣闊的空間發(fā)射光線。不過衍射背光可以發(fā)出統(tǒng)一方向的光線(光場),而且可以設置某個LCD像素發(fā)出單向的光線。通過這樣的方式,不同的像素可以向不同的方向發(fā)送自己的信號。
跟柱狀透鏡一樣,衍射背光的方法也可以充分利用入射光。但是跟柱狀透鏡不同的是,衍射背光可以同時處理好較小和較大的光線發(fā)射角度,以及完全控制每個視角的角度擴散。如果設計合理的話,視角之間是不會產生暗區(qū)的,而且生成的3D圖像也能跟視差屏障一樣清晰。
衍射方式的另一個特點是,光線調整功能不會影響直接穿過屏幕的光線。
這樣一來屏幕的透明度就可以被完整保留,所以這種屏幕可以添加在下方加入正常的背光,并恢復到全像素的2D模式。這為透視裸眼3D顯示技術的發(fā)展鋪平了道路。
衍射方法的主要問題在于顏色的一致性。衍射結構通常會把不同顏色的光線發(fā)射到不同的方向,而這種色散現象需要在系統(tǒng)層級進行抵消。
然而,3D技術的發(fā)展不會只止步于看到3D圖像,它將會打開一種全新的用戶交互范式。
3D體驗很快就能達到適合消費的質量,而且我們也不會在擔心自己的3D體驗被打斷。
在虛擬現實和增強顯示系統(tǒng)中,這意味著要增加視場,支持視覺調節(jié),并且提高系統(tǒng)在頭部快速運動時的響應速度。
在裸眼3D顯示技術中,這意味者要向用戶提供足夠的自由移動空間,并避免出現各種視覺假象,比如3D丟失、暗區(qū)、視覺跳躍,或者運動視差延遲。
一旦幻象變得真實可信,我們就會忘記幻象背后的技術,并且把虛擬現實世界當成是真實世界,至少在我們撞上真實存在的墻壁之前。如果要實現這樣的幻想,我們需要考慮到現實世界是有物理反應的。
當我們把電子數據轉化成我們可以在真實世界感知的光信號的時候,我們需要將身體的真實反應數據發(fā)回數字世界進行交互。
在虛擬現實和增強現實頭顯中,這點可以通過用戶佩戴或放置在周圍環(huán)境的傳感器和攝像頭來實現。我們可以預見未來將會出現搭載傳感器的智能服裝,不過它們可能會較為笨重。
在3D屏幕上,這項任務可以直接由屏幕來完成。 事實上,Synaptics研發(fā)的Hover Touch技術已經能夠可以實現非觸摸手指感應了。很快, 我們只需要動動手指就可以與半空中的全息影像進行交互了。
一旦電子世界理解了用戶的反應機制。 那么兩者就能更自然地融為一體。換言之, 數字信號可以在我們撞上一面墻之前先在上面打開一扇門。
但是如果能在虛擬世界看得見摸得著這面墻,這樣不是更好嗎? 但是我們怎樣把觸感帶進這個世界呢?
這個問題涉及到觸覺反饋的領域,如果你有打開過手機的振動模式的話,那你就應該體驗過這種反饋了。
例如一種配有振動單元的手套和其他服裝,或者利用微弱的電信號來模擬皮膚,如果調整的當的話,你身體的不同部位將能感受到與視覺效果相匹配的觸感 。
當然,不是人人都適合穿上這種衣服布滿電線的服裝或感受電流。
對于基于屏幕的設備來說,超聲波觸覺就可以讓你直接在空中觸摸到屏幕,不需要使用任何智能服裝。這項技術是從屏幕的四周發(fā)出超聲波,這些超聲波的強度可以根據用戶的手指動作進行調整。
信不信由你,這些強化聲波的強度足以讓你的皮膚感應到。Ultrahaptics這樣的公司已經開始準備將這項技術推向市場。
雖然今天的虛擬現實和增強顯示頭顯越來越普遍, 但是它們在移動和社交方面仍有諸多限制,使得它們難以實現全面交互的3D體驗。使用手指觸覺技術的3D屏幕將能克服這一障礙,在未來讓我們以更直接的方式與數字世界進行交互。
我在最近的一篇博客文章中將這種平臺稱為全息現實(Holographic Reality),并講述了全息現實顯示屏可以被應用在我們日常生活的方方面面。未來的所有窗戶、桌子、墻壁和門都會有全息現實功能,我們在辦公室、家中、汽車甚至是公共場所使用的通信設備都會搭載全息現實的元件。我們將可以隨時隨地訪問虛擬世界,無需再佩戴頭顯或者連接線纜。
在過去5年里, 3D技術、顯示技術和頭顯領域已經出現了極大的發(fā)展。
在如此迅猛的技術發(fā)展之下,不難想象在未來5年我們將會在全景現實的世界中交流、學習、工作、購物或娛樂, 這將會通過由頭顯和3D屏幕等產品組成的先進3D生態(tài)系統(tǒng)來實現。
評論
查看更多