色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2025-01-15 09:30 ? 次閱讀

背景簡介

隨著圖像編輯工具和圖像生成技術(shù)的快速發(fā)展,圖像處理變得非常方便。然而圖像在經(jīng)過處理后不可避免的會留下偽影(操作痕跡),這些偽影可分為語義和非語義特征。因此目前幾乎所有的圖像篡改檢測模型(IML)都遵循“語義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語義特征提取”相結(jié)合的設(shè)計(jì),這種方法嚴(yán)重限制了模型在未知場景的偽影提取能力。

b60b7928-d0b2-11ef-9310-92fbcf53809c.png

論文標(biāo)題: Can We Get Rid of Handcrafted Feature Extractors? SparseViT: Nonsemantics-Centered, Parameter-Efficient Image Manipulation Localization through Spare-Coding Transformer

作者單位:

四川大學(xué)(呂建成團(tuán)隊(duì)),澳門大學(xué)

論文鏈接:

https://arxiv.org/abs/2412.14598

代碼鏈接:

https://github.com/scu-zjz/SparseViT

研究內(nèi)容

利用非語義信息往往在局部和全局之間保持一致性,同時相較于語義信息在圖像不同區(qū)域表現(xiàn)出更大的獨(dú)立性,SparseViT 提出了以稀疏自注意力為核心的架構(gòu),取代傳統(tǒng) Vision Transformer(ViT)的全局自注意力機(jī)制,通過稀疏計(jì)算模式,使得模型自適應(yīng)提取圖像篡改檢測中的非語義特征。

研究團(tuán)隊(duì)在統(tǒng)一的評估協(xié)議下復(fù)現(xiàn)并對比多個現(xiàn)有的最先進(jìn)方法,系統(tǒng)驗(yàn)證了 SparseViT 的優(yōu)越性。同時,框架采用模塊化設(shè)計(jì),用戶可以靈活定制或擴(kuò)展模型的核心模塊,并通過可學(xué)習(xí)的多尺度監(jiān)督機(jī)制增強(qiáng)模型對多種場景的泛化能力。

此外,SparseViT 極大地降低了計(jì)算量(最高減少 80% 的 FLOPs),實(shí)現(xiàn)了參數(shù)效率與性能的兼顧,展現(xiàn)了其在多基準(zhǔn)數(shù)據(jù)集上的卓越表現(xiàn)。SparseViT 有望為圖像篡改檢測領(lǐng)域的理論與應(yīng)用研究提供新視角,為后續(xù)研究奠定基礎(chǔ)。

SparseViT 總體架構(gòu)的設(shè)計(jì)概覽圖如下所示:

b633e8ae-d0b2-11ef-9310-92fbcf53809c.png

▲ 圖1:SparseViT 總體架構(gòu)

主要的組件包含:

1. 負(fù)責(zé)高效特征捕獲的 Sparse Self-Attention

Sparse Self-Attention 是 SparseViT 框架的核心組件,專注于在減少計(jì)算復(fù)雜度的同時高效捕獲篡改圖像中的關(guān)鍵特征即非語義特征。傳統(tǒng)的自注意力機(jī)制由于 patch 進(jìn)行 token-to-token 的注意力計(jì)算,導(dǎo)致模型對語義信息過度擬合,使得非語義信息在受到篡改后表現(xiàn)出的局部不一致性被忽視。 為此,Sparse Self-Attention 提出了基于稀疏編碼的自注意力機(jī)制,如圖 2 所示,通過對輸入特征圖施加稀疏性約束,設(shè)輸入的特征圖 ,我們不是對 的整個特征上應(yīng)用注意力,而是將特征分成形狀為的張量塊,表示將特征圖分解為 個大小為的不重疊的張量塊,分別在這些張量塊上進(jìn)行自注意力計(jì)算。

b6460c3c-d0b2-11ef-9310-92fbcf53809c.png

▲ 圖2:稀疏自注意力

這一機(jī)制通過對特征圖進(jìn)行區(qū)域劃分,使模型在訓(xùn)練中專注于非語義特征的提取,提升了對圖像篡改偽影的捕捉能力。相比傳統(tǒng)自注意力,Sparse Self-Attention 減少了約 80% 的 FLOPs,同時保留了高效的特征捕獲能力,特別是在復(fù)雜場景中表現(xiàn)卓越。模塊化的實(shí)現(xiàn)方式還允許用戶根據(jù)需求對稀疏策略進(jìn)行調(diào)整,從而滿足不同任務(wù)的需求。

2. 負(fù)責(zé)多尺度特征融合的 Learnable Feature Fusion(LFF)

Learnable Feature Fusion(LFF)是 SparseViT 中的重要模塊,旨在通過多尺度特征融合機(jī)制提高模型的泛化能力和對復(fù)雜場景的適應(yīng)性。不同于傳統(tǒng)的固定規(guī)則特征融合方法,LFF 模塊通過引入可學(xué)習(xí)參數(shù),動態(tài)調(diào)整不同尺度特征的重要性,從而增強(qiáng)了模型對圖像篡改偽影的敏感度。

LFF 通過從稀疏自注意力模塊輸出的多尺度特征中學(xué)習(xí)特定的融合權(quán)重,優(yōu)先強(qiáng)化與篡改相關(guān)的低頻特征,同時保留語義信息較強(qiáng)的高頻特征。模塊設(shè)計(jì)充分考慮了 IML 任務(wù)的多樣化需求,既能針對微弱的非語義偽影進(jìn)行細(xì)粒度處理,又能適應(yīng)大尺度的全局特征提取。

LFF 的引入顯著提升了 SparseViT 在跨場景、多樣化數(shù)據(jù)集上的性能,同時減少了無關(guān)特征對模型的干擾,為進(jìn)一步優(yōu)化 IML 模型性能提供了靈活的解決方案。

研究總結(jié)

簡而言之,SparseViT 具有以下四個貢獻(xiàn):

1. 我們揭示了篡改圖像的語義特征需要連續(xù)的局部交互來構(gòu)建全局語義,而非語義特征由于其局部獨(dú)立性,可以通過稀疏編碼實(shí)現(xiàn)全局交互。

2. 基于語義和非語義特征的不同行為,我們提出使用稀疏自注意機(jī)制自適應(yīng)地從圖像中提取非語義特征。

3. 為了解決傳統(tǒng)多尺度融合方法的不可學(xué)習(xí)性,我們引入了一種可學(xué)習(xí)的多尺度監(jiān)督機(jī)制。

4. 我們提出的 SparseViT 在不依賴手工特征提取器的情況下保持了參數(shù)效率,并在四個公共數(shù)據(jù)集上實(shí)現(xiàn)了最先進(jìn)的(SoTA)性能和出色的模型泛化能力。

SparseViT 通過利用語義特征和非語義特征之間的差異性,使模型能夠自適應(yīng)地提取在圖像篡改定位中更為關(guān)鍵的非語義特征,為篡改區(qū)域的精準(zhǔn)定位提供了全新的研究思路。

相關(guān)代碼和操作文檔、使用教程已完全開源在 GitHub 上(https://github.com/scu-zjz/SparseViT)。該代碼有著完善的更新計(jì)劃,倉庫將被長期維護(hù),歡迎全球研究者使用和提出改進(jìn)意見。

SparseViT 的主要科研成員來自四川大學(xué)呂建成團(tuán)隊(duì),合作方為澳門大學(xué)潘治文教授團(tuán)隊(duì)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1088

    瀏覽量

    40513
  • IML
    IML
    +關(guān)注

    關(guān)注

    0

    文章

    14

    瀏覽量

    11407
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    145

    瀏覽量

    6026

原文標(biāo)題:AAAI 2025 | SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    王欣然教授團(tuán)隊(duì)提出基于二維材料的高效稀疏神經(jīng)網(wǎng)絡(luò)硬件方案

    。 ? 稀疏性 (Sparsity)?是人腦中的神經(jīng)突觸的本征屬性。在大腦發(fā)育過程中,超過一半的突觸會細(xì)粒度和結(jié)構(gòu)的方式被剪枝?(Pruning),這是人腦具有高能效的關(guān)鍵因素。
    的頭像 發(fā)表于 01-13 10:41 ?51次閱讀
    王欣然教授團(tuán)隊(duì)提出基于二維材料的<b class='flag-5'>高效</b><b class='flag-5'>稀疏</b>神經(jīng)網(wǎng)絡(luò)硬件方案

    地平線ViG基于視覺Mamba的通用視覺主干網(wǎng)絡(luò)

    Vision Mamba的成功預(yù)示著將視覺表征學(xué)習(xí)轉(zhuǎn)換為線性復(fù)雜度視覺序列表征學(xué)習(xí)具有巨大的潛力。盡管Vision Mamba代表的線性視覺
    的頭像 發(fā)表于 01-08 09:33 ?82次閱讀
    地平線ViG基于<b class='flag-5'>視覺</b>Mamba的通用<b class='flag-5'>視覺</b>主干網(wǎng)絡(luò)

    港大提出SparX:強(qiáng)化Vision Mamba和Transformer稀疏跳躍連接機(jī)制

    本文分享香港大學(xué)計(jì)算和數(shù)據(jù)科學(xué)學(xué)院俞益洲教授及其研究團(tuán)隊(duì)發(fā)表于 AAAI 2025 的論文——SparX,一種強(qiáng)化 Vision Mamba 和 Transformer稀疏跳躍連接機(jī)制,性能強(qiáng)大
    的頭像 發(fā)表于 01-03 09:28 ?102次閱讀
    港大提出SparX:強(qiáng)化Vision Mamba和<b class='flag-5'>Transformer</b>的<b class='flag-5'>稀疏</b>跳躍連接機(jī)制

    利用VLM和MLLMs實(shí)現(xiàn)SLAM語義增強(qiáng)

    語義同步定位與建圖(SLAM)系統(tǒng)在對鄰近的語義相似物體進(jìn)行建圖時面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了一種面向?qū)ο骃LAM的語義增強(qiáng)(SEO-SLAM)的新型SLAM系統(tǒng),借助視覺
    的頭像 發(fā)表于 12-05 10:00 ?233次閱讀
    利用VLM和MLLMs實(shí)現(xiàn)SLAM<b class='flag-5'>語義</b>增強(qiáng)

    使用ReMEmbR實(shí)現(xiàn)機(jī)器人推理與行動能力

    視覺語言模型(VLM)通過將文本和圖像投射到同一個嵌入空間,將基礎(chǔ)大語言模型(LLM)強(qiáng)大的語言理解能力與視覺 transformer(ViT)的視覺能力相結(jié)合。VLM 可以處理
    的頭像 發(fā)表于 11-19 15:37 ?296次閱讀
    使用ReMEmbR實(shí)現(xiàn)機(jī)器人推理與行動能力

    使用語義線索增強(qiáng)局部特征匹配

    視覺匹配是關(guān)鍵計(jì)算機(jī)視覺任務(wù)中的關(guān)鍵步驟,包括攝像機(jī)定位、圖像配準(zhǔn)和運(yùn)動結(jié)構(gòu)。目前最有效的匹配關(guān)鍵點(diǎn)的技術(shù)包括使用經(jīng)過學(xué)習(xí)的稀疏或密集匹配器,這需要成對的圖像。這些神經(jīng)網(wǎng)絡(luò)對兩幅圖像的特征有很好的總體理解,但它們經(jīng)常難以匹配不同
    的頭像 發(fā)表于 10-28 09:57 ?297次閱讀
    使用<b class='flag-5'>語義</b>線索增強(qiáng)局部特征匹配

    圖像語義分割的實(shí)用性是什么

    圖像語義分割是一種重要的計(jì)算機(jī)視覺任務(wù),它旨在將圖像中的每個像素分配到相應(yīng)的語義類別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如自動駕駛、醫(yī)學(xué)圖像分析、機(jī)器人導(dǎo)航等。 一、圖像語義分割的基
    的頭像 發(fā)表于 07-17 09:56 ?473次閱讀

    圖像分割與語義分割中的CNN模型綜述

    圖像分割與語義分割是計(jì)算機(jī)視覺領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個具有特定語義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型,在圖像分割與語義分割中發(fā)揮著至關(guān)重要的
    的頭像 發(fā)表于 07-09 11:51 ?1046次閱讀

    機(jī)器視覺檢測技術(shù)在工業(yè)自動中的應(yīng)用

    隨著科技的飛速發(fā)展,工業(yè)自動已成為現(xiàn)代工業(yè)生產(chǎn)的核心動力。在這個背景下,機(jī)器視覺檢測技術(shù)作為工業(yè)自動中的關(guān)鍵技術(shù)之一,以其高精度、高效率、高可靠性的優(yōu)勢,在工業(yè)自動
    的頭像 發(fā)表于 06-07 12:06 ?891次閱讀

    DDS重要特性之--數(shù)據(jù)中心#DDS

    數(shù)據(jù)中心DDS
    北匯信息POLELINK
    發(fā)布于 :2024年05月20日 18:18:28

    一圖看懂星河AI園區(qū)網(wǎng)絡(luò),體驗(yàn)中心,企業(yè)數(shù)智升級首選

    一圖看懂星河AI園區(qū)網(wǎng)絡(luò),體驗(yàn)中心,企業(yè)數(shù)智升級首選
    的頭像 發(fā)表于 05-19 11:10 ?513次閱讀
    一圖看懂星河AI園區(qū)網(wǎng)絡(luò),<b class='flag-5'>以</b>體驗(yàn)<b class='flag-5'>為</b><b class='flag-5'>中心</b>,企業(yè)數(shù)智升級首選

    【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)

    不同語境下的不同語義。而動態(tài)詞向量語言模型中對詞的表示隨著上下文語境的不同而動態(tài)變化,依賴當(dāng)前所在的句子或段落等的語境。ELMo例,將詞序列輸入經(jīng)過預(yù)訓(xùn)練的ELMo模型,該模型可以輸出序列中每個詞
    發(fā)表于 05-05 12:17

    視覺Transformer基本原理及目標(biāo)檢測應(yīng)用

    視覺Transformer的一般結(jié)構(gòu)如圖2所示,包括編碼器和解碼器兩部分,其中編碼器每一層包括一個多頭自注意力模塊(self-attention)和一個位置前饋神經(jīng)網(wǎng)絡(luò)(FFN)。
    發(fā)表于 04-03 10:32 ?3681次閱讀
    <b class='flag-5'>視覺</b><b class='flag-5'>Transformer</b>基本原理及目標(biāo)檢測應(yīng)用

    基于Transformer模型的壓縮方法

    基于Transformer架構(gòu)的大型模型在人工智能領(lǐng)域中發(fā)揮著日益重要的作用,特別是在自然語言處理(NLP)和計(jì)算機(jī)視覺(CV)領(lǐng)域。
    的頭像 發(fā)表于 02-22 16:27 ?678次閱讀
    基于<b class='flag-5'>Transformer</b>模型的壓縮方法

    機(jī)器視覺軟件有哪些 機(jī)器視覺軟件的優(yōu)點(diǎn)

    機(jī)器視覺軟件是一種利用計(jì)算機(jī)視覺技術(shù)來模擬和彌補(bǔ)人眼視覺功能的軟件系統(tǒng)。它可以通過對圖像和視頻進(jìn)行分析,識別和理解目標(biāo)物體,實(shí)現(xiàn)自動和智
    的頭像 發(fā)表于 02-02 10:53 ?1648次閱讀
    主站蜘蛛池模板: 成人国产亚洲精品A区天堂蜜臀| 99精品久久精品一区二区| 中文字幕久久熟女人妻AV免费| 国产乱人精品视频AV麻豆| 日韩插啊免费视频在线观看| 6080yy奇领电影在线看| 男人国产AV天堂WWW麻豆| 97一期涩涩97片久久久久久久| 男人叼女人| 精品久久久久久久99热| 约艺术院校96年清纯白嫩| 玖玖爱在线播放| 97人妻无码AV碰碰视频| 亚洲薄码区| 久久99影院| 97精品国产自产在线观看永久| 男人和女人全黄一级毛片| 精品一二三区久久AAA片| 国产成人综合在线| 人成午夜免费视频| 国产精品免费小视频| 亚洲日本在线不卡二区| 麻豆成人AV久久无码精品| proburn中文破解版下载| 手机观看毛片| 精品在线观看一区| 国产麻豆精品人妻无码A片| xxx日本免费| 香蕉在线播放| 老鸭窝毛片| 俺也去最新地址| 亚洲AV怡红院影院怡春院| 色婷婷综合激情中文在线| 果冻传媒在线观看完整版免费| 杨幂被视频在线观看| 秋霞鲁丝片Av无码| 解开白丝老师的短裙猛烈进入| 99精品国产在热久久| 2021乱码精品公司| 最近韩国HD免费观看国语| 天天影视色欲 影视|