2021 年的谷歌 I/O 大會發(fā)強勢回歸。由于去年的大會被取消,今年的 I/O 大會有很多更新進展。本次大會采取線上的方式舉辦,從 5 月 18 日持續(xù)到 5 月 20 日,所有人都可以免費參與,讓你足不出戶,享受科技盛宴,觀眾也可查看大會開幕式主題演講回放。
在 AR 方面,本次大會展示了在 Google 搜索,直接查找觀看運動員的 3D 模型,并用 AR 展示動作的實時演示。在 AR 平臺方面,也發(fā)布了跟 ARCore 有關(guān)的最新進程。從擴大兼容設(shè)備,到跟蹤改進和新功能,特別是兩個主要功能——Raw Depth API,Record and Playback API。除了 3 場演講,workshop 和 Codelabs 還展示了如何使用主要的 ARCore 功能,如 WebXR API、Cloud Anchors、ARCore Depth、ARCore Record and Playback,并通過代碼樣本一步步構(gòu)建一個 AR 應(yīng)用。
Google 搜索加入 3D 及 AR 展示網(wǎng)球運動員大阪直美的動作實時演示
ARCore 新進更新
創(chuàng)建 ARCore 的初衷就是為了給開發(fā)者提供操作簡單,且功能強大的工具,幫助人們將數(shù)字世界與現(xiàn)實世界無縫融合。作為 Google 搭建的增強現(xiàn)實體驗平臺,ARCore 自 2017 年發(fā)布至今,成功兼容 8.5 億臺設(shè)備,讓諸多開發(fā)者成功打造體驗有趣的應(yīng)用程序,改變?nèi)藗冊?Google 范圍內(nèi)一起玩樂、購物、學習、創(chuàng)造和體驗世界的方式。
在今年的 Google I/O 大會上,我們繼續(xù)優(yōu)化并構(gòu)建 AR 開發(fā)工具。ARCore 1.24 上線后,我們陸續(xù)推出了 Raw Depth API 和 Recording and Playback API。這些新的 API 將幫助開發(fā)者創(chuàng)建新的 AR 體驗,并加快他們的開發(fā)周期。
Raw Depth API——讓深度和空間意識更加真實
2020 年,Depth API 初次與大家見面。讓數(shù)以億計的安卓設(shè)備,無需使用專門的深度傳感器,就能實時生成深度圖。這些深度圖中的數(shù)據(jù)經(jīng)過平滑處理,成功填補了因視覺信息缺失而產(chǎn)生的空白,讓開發(fā)者能夠輕松創(chuàng)建“遮擋”這樣的深度效果。
全新的 ARCore Raw Depth API 可以生成帶有“置信圖(corresponding confidence images)”的“原始深度圖”,從而針對場景中的物體,提供更詳細的幾何形狀。原始深度圖包括非平滑數(shù)據(jù)點,置信圖則為原始深度圖中的每個像素,提供了深度估計的置信度。
Raw Depth API 改進后的幾何圖形讓深度測量和空間意識更加精確。此外,Raw Depth API 的置信圖為開發(fā)者提供實時過濾深度數(shù)據(jù)。例如,TikTok 最新的濾鏡讓用戶能夠上傳圖像,并將圖像包覆在真實世界的物體上。使圖像素材于現(xiàn)實物體表面高度契合。
開發(fā)者過濾高置信度深度數(shù)據(jù)的能力對于三維物體和場景重建也是至關(guān)重要的。3D Live Scanner 應(yīng)用程序能夠幫助用戶掃描他們的空間并創(chuàng)建、編輯和分享 3D 模型。
除了應(yīng)用程序之外,ARCore 深度實驗室中同樣更新了 Raw Depth API 和深度命中測試的實例。你可以在“適用于 Android 的深度 API 概述”網(wǎng)頁中上找到與之相關(guān)的更多內(nèi)容,并利用 Android 和 Unity 建構(gòu)你的 AR。
Recording Playback API——場景輕松復制,提升開發(fā)速度
對于 AR 開發(fā)者來說,一個反復出現(xiàn)的痛點是,需要在特定的地方和場景中不斷進行測試,不但耗時耗力,許多地點并不允許開發(fā)者隨時隨地進出。此外,由于時間不同照明會存在差異和變化,不能確保傳感器在每次現(xiàn)場攝像時都捕捉到完全相同的信息,這就對后期開發(fā)的調(diào)較帶來了挑戰(zhàn)。
新的 ARCore Recording and Playback API 就是針對這一挑戰(zhàn)推出的。利用這個功能,開發(fā)者不僅可以錄制視頻片段,同時還可以記錄 IMU 和深度傳感器數(shù)據(jù)。在回放時,開發(fā)者可以回訪相同的數(shù)據(jù),真正實現(xiàn)場景復制,并在任何舒適的工作空間中測試體驗。這項功能在非常時期,讓無法親臨現(xiàn)場的遠端開發(fā)測試變成了可能。
滴滴率先嘗鮮這一技術(shù),使用 Recording and Playback API 在“滴滴出行 ”App 中建立并測試 AR 指向功能。由于能完全復制場景及數(shù)據(jù),滴滴節(jié)省了 25% 的研發(fā)和測試成本和 60% 的差旅費用。不僅如此,開發(fā)周期更是縮短了 6 個月。
Post - Capture AR
除了縮短研發(fā)周期,錄制和回放還為 AR 體驗帶來了更多的新機遇,Post-Capture AR就是基于 Recording and Playback API 的另一項強大功能:使用記錄了IMU 和深度傳感器數(shù)據(jù)的視頻,帶來不同步的 AR 體驗,消除時間和地點限制。例如,在放置虛擬 AR 家具時,用戶不需要待在一直待在家里,只要調(diào)出家中的視頻,就能準確地放置 AR 家具。通過這種方式,你可以 把 AR 帶到任何地方。
SK 電信的 Jump AR 使用 Recording and Playback API,成功將場景從韓國傳輸?shù)接脩艏抑校鰪娕c文化宣傳相關(guān)的 3D AR 內(nèi)容。
新升級的 API 正在讓 ARCore 日漸強大,幫助開發(fā)者打造出更加逼真的 AR 體驗。隨著兼容設(shè)備數(shù)量增加,ARCore 讓幾乎所有擁有智能手機的人都能體驗增強現(xiàn)實技術(shù)。我們期待有更多的開發(fā)者可以利用 ARCore 進行創(chuàng)新,讓用戶體驗 AR 的強大。
原文標題:一起看 I/O|ARCore 1.24 版本上線,亮點更新一次看全
文章出處:【微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
責任編輯:haq
-
3D
+關(guān)注
關(guān)注
9文章
2894瀏覽量
107648 -
谷歌
+關(guān)注
關(guān)注
27文章
6172瀏覽量
105624 -
Ar
+關(guān)注
關(guān)注
24文章
5100瀏覽量
169718
原文標題:一起看 I/O|ARCore 1.24 版本上線,亮點更新一次看全
文章出處:【微信號:Google_Developers,微信公眾號:谷歌開發(fā)者】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
相關(guān)推薦
評論