色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

一種新的通用視覺主干模型Vision Mamba

地平線HorizonRobotics ? 來源:地平線HorizonRobotics ? 2025-01-06 09:55 ? 次閱讀

Vision Mamba

最具潛力的下一代通用視覺主干網絡

CNN和Transformer常作為深度學習模型的首選基礎模塊,被應用于各種場景,如文本、視覺、語音信號處理及其各種下游應用。然而這兩個基礎模塊都有著其固有而互補的缺陷:CNN具有固定大小窗口的卷積核,使其計算量為線性,但也由此而面臨著窗口化局部感受野的缺陷,使其在全局場景感知和場景語義理解上之力;Transformer通過全局的注意力計算,使其具有長上下文的全局感知能力,但其二次方復雜度的計算量使得在算力有限的端側設備上運行變得很困難。

針對這一問題,我們提出了VisionMamba,來打破線性復雜度與全局感受野不可兼得的困境。基于自然語言處理中的Mamba狀態空間模型SSM,我們設計了雙向SSM,并引I入了位置編碼來專門處理具有二維多向性的視覺信號。在各種分類、檢測、分割任務中,Vim相比現有的視覺Transformer在精度上具有顯著提升,同時在計算和內存效率上也有顯著改進。例如,在進行分辨率為1248x1248的批量推理時,Vim比DeiT快2.8倍,GPU內存節省86.8%

? Vision Mamba 論文鏈接:

https://arxiv.org/abs/2401.09417

? 項目主頁:

https://github.com/hustvl/Vim

簡介

本文的工作Vision Mamba[1]發表在ICML 2024。研究的問題是如何設計新型神經網絡來實現高效的視覺表示學習。該任務要求神經網絡模型能夠在處理高分辨率圖像時既保持高性能,又具備計算和內存的高效性。先前的方法主要依賴自注意力機制來進行視覺表示學習,但這種方法在處理長序列時速度和內存使用上存在挑戰。論文提出了一種新的通用視覺主干模型Vision Mamba,簡稱Vim1,該模型使用雙向狀態空間模型(SSM)對圖像序列進行位置嵌入,并利用雙向SSM壓縮視覺表示。在ImageNet[2]分類、COCO[2]目標檢測和ADE20k[3]語義分割任務中,Vim相比現有的視覺Transformer[4](如DeiT[5])在性能上有顯著提升,同時在計算和內存效率上也有顯著改進。例如,在進行分辨率為1248×1248的批量推理時,Vim比DeiT快2.8倍,GPU內存節省86.8%。這些結果表明,Vim能夠克服在高分辨率圖像理解中執行Transformer樣式的計算和內存限制,具有成為下一代視覺基礎模型主干的潛力。

c6828338-c9b8-11ef-9310-92fbcf53809c.png

圖1 本文所提出的Vision Mamba (Vim)和基于Transformer的DeiT模型進行精度與效率對比:Vim在圖像分類、目標檢測、語義分割、實例分割任務上獲得了更好的精度,且在高清分辨率圖像處理上呈現出巨大的優勢。

研究背景

圖像表示學習是計算機視覺領域的重要研究課題,其目的是通過模型學習從圖像中提取有意義的特征,從而應用于各種視覺任務中。目前,視覺Transformer(Vision Transformer, ViT[4])和卷積神經網絡(Convolutional Neural Networks, CNNs)是圖像表示學習中最常用的方法。然而,這些方法在理論上存在一些局限性。

視覺Transformer利用自注意力機制能夠取得全局的感受野,在大規模自監督預訓練和下游任務中表現出色,但其自注意力機制在處理長序列依賴和高分辨率圖像時,帶來了計算和內存的巨大開銷。具體而言,自注意力機制的計算復雜度是輸入的圖像塊序列長度的平方,這使得其在處理高分辨率圖像時非常耗時且占用大量內存。盡管一些研究提出了改進方法,如窗口注意力機制[6,7],但這些方法雖然降低了復雜度,但導致感受野被局限在局部的窗口內部,失去了原本全局感受野的優勢。

另一方面,卷積神經網絡在處理圖像時,通過使用固定大小的卷積核來提取局部特征。然而,卷積神經網絡在捕捉全局上下文信息方面存在局限性,因為卷積核的感受野是有限的,雖然一些研究引入了金字塔結構或大卷積核來增強全局信息提取能力,但這些改進仍然無法完全克服CNN在處理長序列依賴方面的不足。

在自然語言處理領域,Mamba[11]方法的出現給高效率長序列建模帶來了很好的發展契機。Mamba是狀態空間模型(state space model, SSM)方法的最新演進。Mamba提出了一種輸入自適應的狀態空間模型,能夠更高質量地完成序列建模任務。與此同時,該方法在處理長序列建模問題時有著次二次方的復雜度與更高的處理效率。然而,Mamba方法并不能夠直接應用于視覺表征學習,因為Mamba方法是為自然語言領域的因果建模而設計的,它缺少對于二維空間位置的感知能力以及缺少全局的建模能力。

c69ceac0-c9b8-11ef-9310-92fbcf53809c.png

圖2 本文所提出的Vim模型的網絡構架圖。

為了克服上述Transformer和CNN的理論局限性,啟發于自然語言處理領域Mamba的成功,本文提出了一種新的通用視覺主干模型——Vision Mamba (Vim)。該模型基于狀態空間模型[10](State Space Models, SSMs),利用其在長序列建模中的高效性,提供了一種新的視覺表示學習方法。該模型提出了雙向狀態空間模型來適配視覺特征的多方向性,并引入位置編碼來針對圖像單元進行標記。本文提出的Vim模型通過雙向SSM對圖像序列進行位置嵌入和壓縮,不僅在ImageNet分類任務上表現出色,還在COCO目標檢測和ADE20k語義分割任務中展示了優異的性能。與現有的視覺Transformer如DeiT相比,Vim在計算和內存效率上有顯著提升。

Vision Mamba方法介紹

狀態空間模型

狀態空間模型,比如結構化狀態空間序列模型[10](S4)和Mamba[11]是啟發于連續系統,該系統通過隱藏狀態c6b43068-c9b8-11ef-9310-92fbcf53809c.png將一維函數或序列c6c9c0b8-c9b8-11ef-9310-92fbcf53809c.png映射到c6decc2e-c9b8-11ef-9310-92fbcf53809c.png。該系統使用c6f1acd6-c9b8-11ef-9310-92fbcf53809c.png作為演化參數,并使用c7001f32-c9b8-11ef-9310-92fbcf53809c.pngc7165158-c9b8-11ef-9310-92fbcf53809c.png作為投影參數。連續系統的工作方式如下: ?

c7318b26-c9b8-11ef-9310-92fbcf53809c.png

S4和Mamba是連續系統的離散版本,它們包含一個時間尺度參數c744d6e0-c9b8-11ef-9310-92fbcf53809c.png,用于將連續參數A和B轉換為離散參數

c75f97be-c9b8-11ef-9310-92fbcf53809c.png

c75f97be-c9b8-11ef-9310-92fbcf53809c.png

。常用的方式是零階保持,其定義如下:

c75f97be-c9b8-11ef-9310-92fbcf53809c.png

c75f97be-c9b8-11ef-9310-92fbcf53809c.png

c75f97be-c9b8-11ef-9310-92fbcf53809c.png

離散化后,使用步長c744d6e0-c9b8-11ef-9310-92fbcf53809c.png的離散版本可以重寫為:

c7e068e4-c9b8-11ef-9310-92fbcf53809c.png

最后,模型可以使用全局的卷積來并行的計算:

c7f99e9a-c9b8-11ef-9310-92fbcf53809c.png

其中

c8115b16-c9b8-11ef-9310-92fbcf53809c.png

是輸入序列

c7f99e9a-c9b8-11ef-9310-92fbcf53809c.png

的長度,c84b1a90-c9b8-11ef-9310-92fbcf53809c.png是結構化的卷積核。 ?

Vision Mamba結構

所提出的Vision Mamba如圖1所示。標準的Mamba模塊是為一維的文本序列所設計的。為了適配視覺信號,我們首先將二維圖像c866341a-c9b8-11ef-9310-92fbcf53809c.png轉換為展平的二維圖像塊序列c87efeaa-c9b8-11ef-9310-92fbcf53809c.png,其中c89aad1c-c9b8-11ef-9310-92fbcf53809c.png是輸入圖像的尺寸,C是通道數,P是圖像塊的尺寸。接下來,我們將c8b6904a-c9b8-11ef-9310-92fbcf53809c.png線性投影到大小為D的向量,并添加位置編碼

c8db09d4-c9b8-11ef-9310-92fbcf53809c.png

,如下所示:

c8f5c8d2-c9b8-11ef-9310-92fbcf53809c.png

其中

c9108ee2-c9b8-11ef-9310-92fbcf53809c.png

c9108ee2-c9b8-11ef-9310-92fbcf53809c.png

中的第

c9108ee2-c9b8-11ef-9310-92fbcf53809c.png

個圖像塊,

c9108ee2-c9b8-11ef-9310-92fbcf53809c.png

是可學習的投影變換矩陣。受ViT[4]的啟發,我們也使用類別標記c97cbe8c-c9b8-11ef-9310-92fbcf53809c.png來表示整個圖像塊序列。然后,我們將標記序列c98f1dfc-c9b8-11ef-9310-92fbcf53809c.png輸入到Vim編碼器的第c9a33832-c9b8-11ef-9310-92fbcf53809c.png層,并得到輸出c9a33832-c9b8-11ef-9310-92fbcf53809c.png。最后我們對輸出類別標記c9da86c0-c9b8-11ef-9310-92fbcf53809c.png進行歸一化,并將其送入多層感知機(MLP)分類頭以獲得最終類別預測c9f0b2ec-c9b8-11ef-9310-92fbcf53809c.png

ca048a56-c9b8-11ef-9310-92fbcf53809c.png

其中Vim是提出的視覺Mamba模塊,

ca23e658-c9b8-11ef-9310-92fbcf53809c.png

是層數,

ca23e658-c9b8-11ef-9310-92fbcf53809c.png

是歸一化層。

算法1:Vim模塊流程

輸入:圖像塊序列ca54f338-c9b8-11ef-9310-92fbcf53809c.png

輸出:圖像塊序列c9a33832-c9b8-11ef-9310-92fbcf53809c.png

ca7f746e-c9b8-11ef-9310-92fbcf53809c.png

Vim模塊

原始的Mamba模塊是為一維序列設計的,不適用于需要空間感知理解的視覺任務。我們創新性提出Vision Mamba編碼的基本構建模塊Vim模塊,如圖2右側所示。具體來說,像我們在算法1中所展示的操作。輸入的標記序列caa58578-c9b8-11ef-9310-92fbcf53809c.png首先通過歸一化層進行歸一化。接下來,我們將歸一化后的序列線性投影到維度大小為cabbbf46-c9b8-11ef-9310-92fbcf53809c.pngcad42ab8-c9b8-11ef-9310-92fbcf53809c.pngcaf2c194-c9b8-11ef-9310-92fbcf53809c.png。然后,我們從前向和后向兩個方向處理cb0a325c-c9b8-11ef-9310-92fbcf53809c.png。對于每個方向,我們首先對cad42ab8-c9b8-11ef-9310-92fbcf53809c.png進行一維卷積,得到cb37179a-c9b8-11ef-9310-92fbcf53809c.png。然后,我們將cb37179a-c9b8-11ef-9310-92fbcf53809c.png線性投影到cb7229de-c9b8-11ef-9310-92fbcf53809c.pngc744d6e0-c9b8-11ef-9310-92fbcf53809c.png然后用于分別離散化得到cba520be-c9b8-11ef-9310-92fbcf53809c.pngcbbf6dc0-c9b8-11ef-9310-92fbcf53809c.png。最后我們通過SSM計算前向輸出cbdb4194-c9b8-11ef-9310-92fbcf53809c.png和反向輸出cbf8d5a6-c9b8-11ef-9310-92fbcf53809c.png,并通過caf2c194-c9b8-11ef-9310-92fbcf53809c.png進行門控,并加在一起得到輸出標記序列c9a33832-c9b8-11ef-9310-92fbcf53809c.png。 ?

效率優化

Vim通過借助于Mamba的硬件友好的實現方式確保運行的效率。優化的關鍵思想是避免GPU的I/O瓶頸和內存瓶頸。

IO高效性。高帶寬存儲器(HBM)和SRAM是GPU的兩個重要組成部分。其中,SRAM具有更大的帶寬,而HBM具有更大的存儲容量。標準的Vim的SSM操作在HBM上需要的I/O數量是O(BMEN),其中B為批量大小,M為圖像塊序列長度,E 表示擴展狀態維度,N 表示 SSM 維度。受到Mamba的啟發,Vim首先將O(BME+EN)字節的內存從較慢的HBM讀取到較快的SRAM中。然后Vim在SRAM中獲取對應的參數,并執行SSM操作,最終將輸出結果寫回HBM。此方法可以講I/O數量從O(BMEN)降低到O(BME+EN)從而大幅度提升效率。

內存高效性。為了避免內存不足問題并在處理長序列時降低內存使用,Vim選擇了與 Mamba 相同的重計算方法。對于尺寸為 (B.M,E,N)的中間狀態來計算梯度,Vim在網絡的反向傳遞中重新計算它們。對于激活函數和卷積的中間激活值,Vim 也重新計算它們,以優化 GPU 的內存需求,因為激活值占用了大量內存,但重新計算速度很快。

計算高效性。Vim模塊中的SSM算法和Transformer中的自注意力機制都在自適應地提供全局上下文方面起到了關鍵作用。給定一個視覺序列cc3b6998-c9b8-11ef-9310-92fbcf53809c.png和默認的設置cc575ee6-c9b8-11ef-9310-92fbcf53809c.png。全局注意力機制和SSM的計算復雜度分別為:

cc72cb18-c9b8-11ef-9310-92fbcf53809c.png

其中,自注意力機制的計算復雜度和序列長度cc942d08-c9b8-11ef-9310-92fbcf53809c.png成平方關系,而SSM的計算復雜度和序列長度cc942d08-c9b8-11ef-9310-92fbcf53809c.png呈線性關系。這種計算效率使得Vim在處理具有長序列長度的千兆像素級別應用時具有良好的擴展性。

實驗結果

該方法在標準的大型圖片分類數據集ImageNet-1K上進行驗證。并將分類訓練好的模型作為預加載權重用于下游圖片密集型預測任務中去,如COCO數據集上的目標檢測和實力分割任務, ADE20K上的像素級別的語義分割任務。

分類對比

如表1與當前主流的分類模型對比Vim顯示出了相當的精度,將Vim和基于CNN、Transformer和SSM的主干網絡進行比較,Vim顯示了相當甚至更優的性能。例如,在參數量相同的情況下Vim-Small的準確率80.3%,比ResNet50[12]高出了4.1個百分點。與傳統的基于自注意力機制的ViT[4]相比,Vim在參數數量和準確率上均有顯著提升。與視覺Transformer ViT高度優化的變種DeiT相比,Vim在不同模型尺度上均以相似的參數數量取得了更好的精度。

如圖1所示,Vim的優越的效率足以支持更細粒度的微調,在通過細粒度微調后,與基于SSM的S4ND-ViT-B[13]相比,Vim在參數數量減小3倍的情況下達到了相似的精度,Vim-Ti+,Vim-S+和Vim-B+的結果均有所提高。其中,Vim-S+甚至達到了與DeiT-B相似的效果。

cccb5008-c9b8-11ef-9310-92fbcf53809c.png

表1ImageNet-1K分類骨干網絡對比

語義分割對比

在ADE20K語義分割數據集上,我們將ImageNet-1K上訓練好的權重加載到UperNet[14]分割器中,使用Vim作為骨干網絡進行特征提取,如表3所示,Vim取得了相比于CNN網絡ResNet更少的參數量以及更高的精度,去Transformer模型DeiT相比,Vim取得了更優的精度。

ccde6616-c9b8-11ef-9310-92fbcf53809c.png

表2ADE20k語義分割對比

ccf715d0-c9b8-11ef-9310-92fbcf53809c.png

表3 COCO目標檢測和實例分割對比

目標檢測與實例分割對比

在COCO目標檢測與實例分割數據集上,我們將ImageNet-1K上訓練好的權重加載到Cascade-RCNN框架中,使用Vim作為骨干網絡進行特征提取,如表3所示,Vim取得相對于Transformer的DeiT更好的檢測框精度和實例分割精度。值得注意的是,在高清圖像輸入的目標檢測任務上,圖像輸入分辨率為1024×1024,由于Transformer的平方復雜度,需要將自注意力機制限制在固定大小的窗口內, 而Vim得意于其線性復雜度,無需窗口化,可以進行全局的視覺特征感知,從而取得了相對于表3中窗口化DeiT更好的精度。

消融實驗

雙向SSM。如表4所示,雙向SSM相較于原本的單向SSM取得了更高的分類精度, 且在下游的密集型預測任務上取得更為顯著的優勢。這一結果顯示了本文提出的雙向設計對于視覺特征學習的必要性與重要性。

cd0edd46-c9b8-11ef-9310-92fbcf53809c.png

表4 雙向SSM建模消融實驗

分類策略。在表5中,我們探索了以下幾種分類策略:

cd2f1868-c9b8-11ef-9310-92fbcf53809c.png

表5 分類策略消融實驗

·Mean pool,將最后Vision Mamba編碼器輸出的特征進行平均池化。

·Max pool,將最后Vision Mamba編碼器輸出的特征進行最大化池化。

·Head class token,將類別標記詞元置于圖像塊序列頭部。

·Double class token,將類別標記詞元置于圖像塊序列兩端。

·Middle class token,將類別標記詞元置于圖像塊序列中間。

如表5所示,實驗結果表明,中間類別標記策略能夠充分利用SSM的循環特性和ImageNet中的中心對象先驗,展示了最佳的top-1準確率76.1。

總結

該論文提出了Vision Mamba (Vim),以探索最新的高效狀態空間模型Mamba作為通用視覺主干網絡。與以往用于視覺任務的狀態空間模型采用混合架構或等效的全局二維卷積核不同,Vim以序列建模的方式學習視覺表示,并未引入圖像特定的歸納偏置。得益于所提出的雙向狀態空間建模,Vim實現了數據依賴的全局視覺上下文,并具備與Transformer相同的建模能力,同時計算復雜度更低。受益于Mamba的硬件感知設計,Vim在處理高分辨率圖像時的推理速度和內存使用顯著優于ViTs。在標準計算機視覺基準上的實驗結果驗證了Vim的建模能力和高效性,表明Vim具有成為下一代視覺主干網絡的巨大潛力。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 網絡
    +關注

    關注

    14

    文章

    7580

    瀏覽量

    88928
  • 模型
    +關注

    關注

    1

    文章

    3260

    瀏覽量

    48911
  • 自然語言處理

    關注

    1

    文章

    619

    瀏覽量

    13579
  • 地平線
    +關注

    關注

    0

    文章

    346

    瀏覽量

    14968

原文標題:地平線Vision Mamba:超越ViT,最具潛力的下一代通用視覺主干網絡

文章出處:【微信號:horizonrobotics,微信公眾號:地平線HorizonRobotics】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    LabVIEW Vision Assistant的圖像處理,NI視覺助手教程免費閱讀

    點擊學習>>《龍哥手把手教你學LabVIEW視覺設計》視頻教程LabVIEW Vision Assistant的圖像處理,NI視覺助手教程免費閱讀 非常好的份教程,特別的詳細,比英文
    發表于 09-17 16:34

    視頻教程-創建labveiw視覺通用平臺()采集攝像頭圖像Uni-vision@qq.com

    ://www.chuanke.com/course/_labview_____.html論壇中創建labveiw視覺通用平臺()采集攝像頭圖像https://bbs.elecfans.com/forum.ph
    發表于 04-05 18:16

    用 NI Vision Development Module(VDM)視覺開發模塊 還是用 NI Vision Assistant視覺助手?

    用labview開發機器視覺程序時,用 NI Vision Development Module(VDM)視覺開發模塊 還是用NI Vision Assistant
    發表于 07-22 16:09

    還在為非標項目單獨開發視覺軟件?你out了!labview通用視覺框架,真香!

    labview視覺非標軟件開發直以來面臨的問題是:算法復用性差,界面臃腫,軟件開發周期長。針對這個問題,構思了一種極簡易的通用視覺框架,課
    發表于 07-25 23:55

    分享一種不錯的Xilinx Smarter Vision解決方案

    分享一種不錯的Xilinx Smarter Vision解決方案
    發表于 06-03 06:22

    一種基于檢索頻度的網格資源描述模型

    網格發展的目的是資源共享,而資源描述是網格應用的關鍵。本文給出一種根據資源檢索頻度劃分的通用資源描述模型及其工程實現,經實驗分析,該模型優于完全描述
    發表于 09-03 17:34 ?6次下載

    一種改進的視覺詞袋方法

    視覺詞袋模型廣泛地應用于圖像分類與圖像檢索等領域.在傳統詞袋模型中,視覺單詞統計方法忽略了視覺詞之間的空間信息以及分類對象形狀信息。導致圖像
    發表于 12-28 17:36 ?3次下載

    一種融合視覺詞匯空間信息的主題模型

    針對主題模型中詞匯獨立性和主題獨立性假設忽略了視覺詞匯間空間關系的問題,提出了一種融合了視覺詞匯空間信息的主題模型,稱為馬爾可夫主題隨機場(
    發表于 12-30 13:44 ?0次下載
    <b class='flag-5'>一種</b>融合<b class='flag-5'>視覺</b>詞匯空間信息的主題<b class='flag-5'>模型</b>

    微軟視覺語言模型有顯著超越人類的表現

    最近開發了一種新的圖像編碼對象屬性檢測模型,稱為VinVL(Visual features in Vision-Language),有著顯著超越人類的表現。
    的頭像 發表于 01-19 14:32 ?1678次閱讀

    Transformer迎來強勁競爭者 新架構Mamba引爆AI圈!

    作為通用序列模型的骨干,Mamba 在語言、音頻和基因組學等多種模態中都達到了 SOTA 性能。在語言建模方面,無論是預訓練還是下游評估,他們的 Mamba-3B
    發表于 12-07 14:14 ?504次閱讀
    Transformer迎來強勁競爭者 新架構<b class='flag-5'>Mamba</b>引爆AI圈!

    微軟發布PhI-3-Vision模型,提升視覺AI效率

    Phi-3-vision一種小型多模式語言模型(SLM),主要適用于本地人工智能場景。其模型參數高達 42 億,上下文序列包含 128k 個符號,可滿足各種
    的頭像 發表于 05-28 11:35 ?506次閱讀

    用Ollama輕松搞定Llama 3.2 Vision模型本地部署

    Ollama的安裝。 ,Llama3.2 Vision簡介 Llama 3.2 Vision個多模態大型語言模型(LLMs)的集合,它
    的頭像 發表于 11-23 17:22 ?1211次閱讀
    用Ollama輕松搞定Llama 3.2 <b class='flag-5'>Vision</b><b class='flag-5'>模型</b>本地部署

    Mamba入局圖像復原,達成新SOTA

    圖像復原又來新突破了!還記得性能超越SwinIR(基于Transformer)的MambaIR嗎?一種基于Mamba的圖像復原基準模型,登上ECCV 2024。最近原作者又開發了新版本
    的頭像 發表于 12-30 18:09 ?135次閱讀
    <b class='flag-5'>Mamba</b>入局圖像復原,達成新SOTA

    港大提出SparX:強化Vision Mamba和Transformer的稀疏跳躍連接機制

    本文分享香港大學計算和數據科學學院俞益洲教授及其研究團隊發表于 AAAI 2025 的論文——SparX,一種強化 Vision Mamba 和 Transformer 的稀疏跳躍連接機制,性能強大
    的頭像 發表于 01-03 09:28 ?82次閱讀
    港大提出SparX:強化<b class='flag-5'>Vision</b> <b class='flag-5'>Mamba</b>和Transformer的稀疏跳躍連接機制

    地平線ViG基于視覺Mamba通用視覺主干網絡

    Vision Mamba的成功預示著將視覺表征學習轉換為線性復雜度視覺序列表征學習具有巨大的潛力。盡管以Vision
    的頭像 發表于 01-08 09:33 ?26次閱讀
    地平線ViG基于<b class='flag-5'>視覺</b><b class='flag-5'>Mamba</b>的<b class='flag-5'>通用</b><b class='flag-5'>視覺</b><b class='flag-5'>主干</b>網絡
    主站蜘蛛池模板: 秋霞电影在线观看午夜伦| 我半夜摸妺妺的奶C了她软件| 国产午夜精品理论片影院| 天天看高清影视在线18| 国产品无码一区二区三区在线| 性夜影院午夜看片| 久久99蜜桃精品麻豆| 99RE8国产这里只有精品| 日本xxxxxx片免费播放18| 国产精品嫩草影院一区二区三区| 亚洲欧美日本国产在线观18| 粗大分开挺进内射| 蜜臀色欲AV无人A片一区 | 2019天天射干网站| 精品久久伦理中文字幕| 97免费在线视频| 丝袜足控免费网站xx91| 九九影院午夜理论片无码| 99久在线国内在线播放免费观看| 美女隐私黄www视频| 高h np 强j 乱l 双性| 妖精视频在线观看高清| 全部免费特黄特色大片看片| 国产毛片AV久久久久精品| 91羞羞视频| 亚洲qingse中文字幕久久| 免费网站在线观看国产v片| 国产人妻XXXX精品HD电影| 99热都是精品| 亚洲色图在线视频| 日韩一区二区三区精品| 国产精品乱码一区二区三| 中文字幕一区在线观看视频| 色愁愁久久久| 某上海少妇3P黑人完整版BD| 国产亚洲精品久久久久久入口| 99热这里只有精品6| 野花视频在线观看免费| 天天色狠狠干| 啪啪后入内射日韩| 久久亚洲欧美国产综合|