色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

新型transformer模型實現(xiàn)3D醫(yī)學(xué)圖像分析最新基準

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:NVIDIA ? 2022-08-15 15:01 ? 次閱讀

計算機視覺和模式識別會議( CVPR )上, NVIDIA 研究人員發(fā)表了 35 多篇論文。這包括對 移動窗口 UNEt TRansformers ( Swin-UNETR )的研究,這是第一個基于變壓器的預(yù)訓(xùn)練框架,專為 3D 醫(yī)學(xué)圖像分析中的自我監(jiān)督任務(wù)而設(shè)計。這項研究是創(chuàng)建用于數(shù)據(jù)注釋的預(yù)訓(xùn)練、大規(guī)模和自監(jiān)督三維模型的第一步。

作為一種基于 transformer 的計算機視覺方法, Swin UNETR 采用了 MONAI ,這是一種開源的 PyTorch 框架,用于深入學(xué)習(xí)醫(yī)療成像,包括放射學(xué)和病理學(xué)。使用這種預(yù)訓(xùn)練方案, Swin UNETR 為各種醫(yī)學(xué)圖像分割任務(wù)設(shè)定了新的最先進的基準,并一致證明了其有效性,即使只有少量的標記數(shù)據(jù)。

Swin UNETR 模型培訓(xùn)

Swin UNETR 模型在 NVIDIA DGX-1 集群 使用八個 GPUAdamW 優(yōu)化算法。對 5050 張來自健康和不健康受試者不同身體部位的公開 CT 圖像進行預(yù)訓(xùn)練,以保持數(shù)據(jù)集的平衡。

對于 3D Swin transformer 編碼器的自我監(jiān)督預(yù)訓(xùn)練,研究人員使用了各種借口任務(wù)。隨機裁剪的標記使用不同的變換(如旋轉(zhuǎn)和剪切)進行增強。這些標記用于掩蔽體修復(fù)、旋轉(zhuǎn)和對比學(xué)習(xí),用于編碼器學(xué)習(xí)訓(xùn)練數(shù)據(jù)的上下文表示,而不會增加數(shù)據(jù)注釋的負擔(dān)。

pYYBAGL571-AKsH1AALchbVmfMI713.png

圖 1 :。預(yù)培訓(xùn)框架概述。輸入的 CT 圖像被隨機裁剪成子體積,并通過隨機內(nèi)部剪切和旋轉(zhuǎn)進行增強,然后作為輸入饋送到 Swin-UNETR 編碼器

Swin UNETR 背后的技術(shù)

Swin Transformers 采用分層視覺 transformer ( ViT )進行非重疊窗口的局部自我注意計算。這打開了為大型公司創(chuàng)建醫(yī)療專用 ImageNet 的機會,消除了創(chuàng)建醫(yī)療 AI 模型需要大量高質(zhì)量注釋數(shù)據(jù)集的瓶頸。

與 CNN 體系結(jié)構(gòu)相比, ViT 在從未標記數(shù)據(jù)(數(shù)據(jù)集越大,預(yù)訓(xùn)練主干越強)進行全局和局部表示的自監(jiān)督學(xué)習(xí)方面表現(xiàn)出非凡的能力。用戶可以在下游任務(wù)(例如,分割、分類和檢測)中使用極少量的標記數(shù)據(jù)微調(diào)預(yù)訓(xùn)練模型。

這種體系結(jié)構(gòu)在本地窗口中計算自我注意,與 ViT 相比表現(xiàn)出更好的性能。此外, Swin Transformers 的層次性使其非常適合需要多尺度建模的任務(wù)。

繼領(lǐng)先的 UNETR 模型成功使用直接使用 3D 補丁嵌入的基于 ViT 的編碼器之后, Swin UNETR 使用了具有金字塔結(jié)構(gòu)的 3D Swin transformer 編碼器。

在 Swin UNETR 的編碼器中,由于計算簡單的全局自我注意對于高分辨率特征地圖是不可行的,因此在本地窗口中計算自我注意。為了增加局部窗口以外的感受野,使用窗口移位來計算不同窗口的區(qū)域相互作用。

Swin UNETR 的編碼器通過跳過連接以五種不同的分辨率連接到剩余的類似 UNet 的解碼器。它可以為密集的預(yù)測任務(wù)(如醫(yī)學(xué)圖像分割)捕獲多尺度特征表示。

Swin UNETR 模型性能

在對 CT 中的 13 個腹部器官和 醫(yī)學(xué)分段十項全能( MSD ) 數(shù)據(jù)集中的分割任務(wù)使用 超越顱穹窿( BTCV )分割挑戰(zhàn) 進行微調(diào)后,該模型在公共排行榜上達到了最先進的精度。

BTCV

在 BTCV 中, SwinUnetr 的平均骰子數(shù)為 0.918 ,優(yōu)于其他排名靠前的模型。

pYYBAGL572iAYS0KAAFJcNkiNbo915.png

圖 2 :。 BTCV 挑戰(zhàn)多器官分割排行榜骰子結(jié)果

對于較小的器官,如脾靜脈和門靜脈( 3.6% )、胰腺( 1.6% )和腎上腺( 3.8% ),與之前的最先進方法相比,有了改進小器官數(shù)據(jù)標簽分割對于放射科醫(yī)生來說是一項極其困難的任務(wù)。

通訊簿標簽

在 MSD 中, Swin UNETR 在腦腫瘤、肺、胰腺和結(jié)腸方面取得了最先進的表現(xiàn)。心臟、肝臟、海馬、前列腺、肝血管和脾臟的結(jié)果具有可比性。總的來說, Swin UNETR 在所有 10 項任務(wù)中的平均骰子率為 78.68% ,是最好的,并在 MSD 排行榜上排名第一。

pYYBAGL573OASYJ5AAUqdCVicy0245.png

圖 4 :。使用 MSD 數(shù)據(jù)集進行肝血管分割任務(wù)的定性輸出。你可以看到, Swin UNETR 比 SOTA DiNTS 跑贏了 3% 。這一變化很重要,因為它會導(dǎo)致更準確的分段輸出

與DiNTS(一種用于醫(yī)學(xué)圖像分割的強大AutoML方法)相比,Swin UNETR使用更少的訓(xùn)練時間,顯示出更好的分割性能。例如,肝血管分割任務(wù)的定性分割輸出證明了Swin UNETR能夠更好地建模長期空間依賴性。

pYYBAGL574GAYNO0AAIuPO-qS8I870.png

圖 5 :。 Swin UNETR 模型體系結(jié)構(gòu)由一個 Swin transformer 編碼器組成,該編碼器使用 3D 補丁,并通過不同分辨率的跳過連接連接到基于 CNN 的解碼器

結(jié)論

Swin UNETR 體系結(jié)構(gòu)在使用變壓器的醫(yī)療成像方面提供了急需的突破。鑒于醫(yī)學(xué)成像需要快速構(gòu)建準確的模型, Swin UNETR 體系結(jié)構(gòu)使數(shù)據(jù)科學(xué)家能夠?qū)Υ罅课礃擞洈?shù)據(jù)進行預(yù)訓(xùn)練。這減少了放射科醫(yī)生、病理學(xué)家和其他臨床團隊進行專家注釋的成本和時間。這里我們展示了用于器官檢測和自動體積測量的 SOTA 分割性能。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3648

    瀏覽量

    134744
  • 計算機
    +關(guān)注

    關(guān)注

    19

    文章

    7518

    瀏覽量

    88192
收藏 人收藏

    評論

    相關(guān)推薦

    AN-1249:使用ADV8003評估板將3D圖像轉(zhuǎn)換成2D圖像

    電子發(fā)燒友網(wǎng)站提供《AN-1249:使用ADV8003評估板將3D圖像轉(zhuǎn)換成2D圖像.pdf》資料免費下載
    發(fā)表于 01-08 14:28 ?0次下載
    AN-1249:使用ADV8003評估板將<b class='flag-5'>3D</b><b class='flag-5'>圖像</b>轉(zhuǎn)換成2<b class='flag-5'>D</b><b class='flag-5'>圖像</b>

    Google DeepMind發(fā)布Genie 2:打造交互式3D虛擬世界

    的交互式體驗。 據(jù)了解,Genie 2是一個自回歸潛在擴散模型,它基于大型視頻數(shù)據(jù)集進行訓(xùn)練。通過自動編碼器,視頻中的潛在幀被傳遞到大型Transformer動力學(xué)模型中。該模型采用與
    的頭像 發(fā)表于 12-05 14:16 ?521次閱讀

    安寶特產(chǎn)品 安寶特3D Analyzer:智能的3D CAD高級分析工具

    安寶特3D Analyzer包含多種實用的3D CAD高級分析工具,包括自動比對模型、碰撞檢測、間隙檢查、壁厚檢查,以及拔模和底切分析,能夠
    的頭像 發(fā)表于 08-07 10:13 ?394次閱讀
    安寶特產(chǎn)品  安寶特<b class='flag-5'>3D</b> Analyzer:智能的<b class='flag-5'>3D</b> CAD高級<b class='flag-5'>分析</b>工具

    安寶特產(chǎn)品 3D Evolution : 基于特征實現(xiàn)無損CAD格式轉(zhuǎn)換

    安寶特3D Evolution具有強大的3D CAD模型轉(zhuǎn)換功能,可在保留模型特征參數(shù)、注釋、約束的前提下,完成不同格式3D CAD
    的頭像 發(fā)表于 08-06 17:26 ?346次閱讀
    安寶特產(chǎn)品   <b class='flag-5'>3D</b> Evolution : 基于特征<b class='flag-5'>實現(xiàn)</b>無損CAD格式轉(zhuǎn)換

    裸眼3D筆記本電腦——先進的光場裸眼3D技術(shù)

    效果的用戶,這款筆記本電腦都能滿足你的需求。 一、卓越的3D模型設(shè)計能力 英倫科技裸眼3D筆記本電腦采用最新的光場裸眼3D技術(shù),使用戶無需佩戴3D
    的頭像 發(fā)表于 07-16 10:04 ?570次閱讀

    Transformer語言模型簡介與實現(xiàn)過程

    任務(wù),隨后迅速擴展到其他NLP任務(wù)中,如文本生成、語言理解、問答系統(tǒng)等。本文將詳細介紹Transformer語言模型的原理、特點、優(yōu)勢以及實現(xiàn)過程。
    的頭像 發(fā)表于 07-10 11:48 ?1850次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建Trans
    的頭像 發(fā)表于 07-02 11:41 ?1691次閱讀

    烘焙vs渲染:3D模型制作中的效率與質(zhì)量之爭

    3D建模和渲染領(lǐng)域,模型烘焙(Baking)和模型渲染(Rendering)是兩個經(jīng)常被提及的概念。盡管它們都與最終圖像的生成有關(guān),但它們在技術(shù)
    的頭像 發(fā)表于 05-12 08:27 ?470次閱讀
    烘焙vs渲染:<b class='flag-5'>3D</b><b class='flag-5'>模型</b>制作中的效率與質(zhì)量之爭

    ad19中3d模型不顯示?

    封裝庫導(dǎo)入3d模型不顯示,但導(dǎo)入3d模型后的封裝庫生成pcb文件時顯示3d模型,這是什么原因?qū)е?/div>
    發(fā)表于 04-24 13:41

    包含具有多種類型信息的3D模型

    三維視圖。事實上,AE可以在將3D BIM模型元素與時間因素聯(lián)系起來后創(chuàng)建4D模型,從而更廣泛地進行產(chǎn)品的可視化預(yù)覽,更精確地分析建筑項目的
    發(fā)表于 03-28 17:18

    NVIDIA生成式AI研究實現(xiàn)在1秒內(nèi)生成3D形狀

    NVIDIA 研究人員使 LATTE3D (一款最新文本轉(zhuǎn) 3D 生成式 AI 模型實現(xiàn)雙倍加速。
    的頭像 發(fā)表于 03-27 10:28 ?511次閱讀
    NVIDIA生成式AI研究<b class='flag-5'>實現(xiàn)</b>在1秒內(nèi)生成<b class='flag-5'>3D</b>形狀

    Stability AI推出全新Stable Video 3D模型

    近日,Stability AI 推出了全新的 Stable Video 3D 模型,該模型以其獨特的功能吸引了眾多關(guān)注。此模型具備從單張圖像
    的頭像 發(fā)表于 03-22 10:30 ?874次閱讀

    Adobe提出DMV3D3D生成只需30秒!讓文本、圖像都動起來的新方法!

    因此,本文研究者的目標是實現(xiàn)快速、逼真和通用的 3D 生成。為此,他們提出了 DMV3D。DMV3D 是一種全新的單階段的全類別擴散模型,能
    的頭像 發(fā)表于 01-30 16:20 ?883次閱讀
    Adobe提出DMV<b class='flag-5'>3D</b>:<b class='flag-5'>3D</b>生成只需30秒!讓文本、<b class='flag-5'>圖像</b>都動起來的新方法!

    高分工作!Uni3D3D基礎(chǔ)大模型,刷新多個SOTA!

    我們主要探索了3D視覺中scale up模型參數(shù)量和統(tǒng)一模型架構(gòu)的可能性。在NLP / 2D vision領(lǐng)域,scale up大模型(GP
    的頭像 發(fā)表于 01-30 15:56 ?916次閱讀
    高分工作!Uni<b class='flag-5'>3D</b>:<b class='flag-5'>3D</b>基礎(chǔ)大<b class='flag-5'>模型</b>,刷新多個SOTA!

    友思特C系列3D相機:實時3D點云圖像

    3D相機
    虹科光電
    發(fā)布于 :2024年01月10日 17:39:25
    主站蜘蛛池模板: 一区二区视频在线观看高清视频在线 | 无套暴躁白丝秘书| 暖暖日本手机免费完整版在线观看| 久草在在线免视频在线观看| 国产亚洲日韩另类在线播放| 国产精品久久人妻无码蜜| 粗大分开挺进内射| 东热rq大乱交| 国产成人8x视频一区二区| 高清午夜福利电影在线| 动漫美女3d被爆漫画| 纯肉巨黄H爆粗口男男分卷阅读| 成人在线视频免费观看| 嘟嘟嘟WWW在线观看视频高清| 岛国大片在线播放高清| 大香伊人久久| 国产第81页| 国产在线观看的| 精品视频在线观看视频免费视频| 精品视频在线一区| 快播在线电影网站| 女攻男受高h全文肉肉| 欧美一区二区三区男同| 日操夜操天天操| 呜呜别塞了啊抽插| 亚洲国产精品高清在线| 亚洲人交性视频| 2020亚洲色噜噜狠狠网站| aa级毛片毛片免费观看久| 处破女免费播放| 国产香蕉视频在线播放| 精品极品三大极久久久久| 快播看av| 全彩黄漫火影忍者纲手无遮挡| 沈阳熟女露脸对白视频| 亚洲精品不卡视频| 2020久久精品永久免费| 草莓视频在线看免费高清观看| 国产精品自在拍在线播放| 久久免费看少妇级毛片蜜臀| 琪琪色原网20岁以下热热色原网站 |