色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

為什么傳統CNN在紋理分類數據集上的效果不好?

穎脈Imgtec ? 2022-09-23 14:26 ? 次閱讀

作者:Trapti Kalra

來源:AI公園,編譯:ronghuaiyang


導讀

本文分析了常見的紋理數據集以及傳統CNN在紋理數據集分類上效果不佳的原因。

機器視覺任務中,將紋理分析與深度學習結合使用,對于獲得更好的結果起到了重要作用。在前一篇文章中,我們已經討論了什么是紋理的基礎知識,不同類型的紋理,以及紋理分析在解決真正的計算機視覺任務中的適用性。我們還解釋了一些最常用和值得注意的提取紋理的技術,此外,我們還演示了如何將這些紋理提取技術與深度學習結合起來。
深度學習由多種結構組成,可用于圖像分類任務。基于深度學習的模型經常用于圖像分類任務,并在許多不同的用例中產生了出色的結果,展示了它們的有效性。幾年前,遷移學習的概念出現了,它建議使用使用大數據集訓練的模型作為特定用例的骨干,其中,預訓練的骨干模型只是通過使用特定案例的數據集來微調權重以解決特定任務。經過圖像分類訓練的預訓練模型也可用于紋理分類任務。為了檢驗現有傳統的基于cnn的紋理分類模型的效率,我們使用一些公共的基于紋理的數據集對其進行性能基準測試。我們觀察到,傳統的CNN結構(如圖5所示)很難產生較好的結果,并不是很有效地應用于紋理分類任務。


紋理分類以及常用的紋理數據集

紋理分析和分類是地形識別、自動醫療診斷、顯微圖像分析、自動駕駛汽車和爆炸危險檢測等領域的關鍵任務。在執行基于分類的任務時,紋理是一個非常重要的屬性。作為人類,我們可以直觀地看到、理解和區分紋理,但對于基于人工智能的機器來說,情況并非如此。如果一個人工智能模型能夠識別紋理,那么它在分類任務中的應用將會是一個額外的優勢。根據物體的視覺效果來理解和分類物體可以使人工智能模型更加高效和可靠。

因此,我們為紋理分類任務構建了模型,并在基于紋理的基準數據集(如DTD、FMD、和KTH)上測試模型的有效性。基于這些數據集上任何模型的準確性,我們可以理解并在一定程度上預測它在其他類似數據集上的性能。下面我們將提供關于上述數據集的詳細信息

  • DTD:它是一個基于紋理的圖像數據集,由5640張圖像組成,根據受人類感知啟發的47個類別進行組織。每個類別有120張圖片。

a729c912-3ac0-11ed-b180-dac502259ad0.png

圖1,DTD中每個類別的圖

KTH:KTH通常被稱為KTH- tips(在不同的照明、姿勢和比例下的紋理)圖像數據庫被創建來在兩個方向上擴展CUReT數據庫,通過提供在尺度以及姿態和照明上的變化,并通過在不同的設置中對其材料的子集進行成像得到其他樣本。有11類的總樣本量是3195。

a796362e-3ac0-11ed-b180-dac502259ad0.png圖2,KTH-TIPS數據集中11個類別,每個類比4張圖

FMD:建立這個數據庫的特定目的是捕捉一系列常見材料(如玻璃、塑料等)在現實世界中的外觀。這個數據庫中的每一張圖片(總共有10個類別,每個類別有100張圖片)都是手動從Flickr.com(在創作共用許可下)中選擇的,以確保各種照明條件、組合、顏色、紋理和材料子類型。

a7d1eed0-3ac0-11ed-b180-dac502259ad0.png

圖3,FMD數據集中每個類比的幾張圖


傳統CNN圖像分類

就現有的傳統CNN而言,這些大多屬于預訓練模型本身或使用這些預訓練層/權值的模型。在我們的博客中,我們將首先簡要概述什么是預訓練模型,以及如何將其應用于圖像分類任務。

現有的幾種CNN模型都是由不同的研究人員針對圖像分類的任務提出的,這些模型也可以作為許多其他圖像分類相關任務的預訓練模型。在圖5中,我們可以看到如何將預訓練的層合并到傳統的基于CNN的架構中。

在紋理分類任務的情況下,這些預先訓練的模型也可以通過遷移它們的知識,并將它們用于基于紋理的數據集。由于這些模型是為特定數據集上的圖像分類任務而建立的,而我們在一些不同的數據集上使用它們進行紋理分類,我們稱它們為預訓練模型。進一步介紹了圖像分類預訓練模型的一些關鍵思想:


什么是預訓練模型?

為了簡單地定義一個預先訓練的模型,我們可以將其稱為由其他人訓練的神經網絡模型,并為特定的用例提供給其他開發人員使用。

流行的預訓練模型通常是通過使用一個龐大的數據集來解決一個復雜的任務。然后,這些模型被貢獻為開放源碼,因此其他開發人員可以進一步構建或在他們的工作中使用這些模型。通常情況下,使用預先訓練的模型來解決類似的問題是一個好主意,而預先訓練的模型是為這些問題開發的。在圖4中,一個模型為一個源任務訓練,這個源模型已經訓練(預訓練模型)的權值被用于目標任務。對新開發的模型進行了一些修改,將預先訓練的模型的權值進行轉移,以獲得更好和更精確的預測結果。

a84554ba-3ac0-11ed-b180-dac502259ad0.png

圖4,使用預訓練模型的方法

使用預訓練的模型作為計算機視覺和自然語言處理的各種問題的起點是非常常見的。從零開始構建一個神經網絡需要巨大的計算能力、時間和熟練的勞動力。

在這個文章中,我們將著重于應用預訓練模型(訓練用于圖像分類任務)來解決紋理分類任務。


常用的預訓練模型

下面是對預訓練模型的概述,這些模型經常用于許多圖像分類相關的任務。

VGG-16: 2015年發布的最受歡迎的預訓練圖像分類模型之一。VGG-16是一個深度為16層可調的神經網絡,它在ImageNet數據庫中的100萬張圖像上訓練。它能夠對1000個物體進行分類。

Inception v3:一個由谷歌在同一個ImageNet數據庫上開發的預訓練模型。它也被稱為GoogLeNet。Inception v3是一個深度為50層的神經網絡。在2014年的ImageNet競賽中,InceptionV3獲得了第一,而VGG-16獲得了亞軍。它只有700萬個參數,這比以前的模型要小得多,除此之外,它的錯誤率很低,這是該模型的一個主要成就。

ResNet50:原始模型稱為殘差網或ResNet,它是微軟在2015年開發的。ResNet50是一個深度為50層的神經網絡。ResNet50還訓練了來自ImageNet數據庫的100萬張圖像。與VGG16相比,ResNet復雜度更低,結果優于VGG16。ResNet50旨在解決梯度消失的問題。

EfficientNet:它是谷歌于2019年訓練并向公眾發布的最先進的卷積神經網絡。在EfficientNet中,作者使用了一種新的縮放方法,稱為復合縮放,我們在同一時間縮放固定數量的維度,并且我們均勻地縮放。通過這樣做,我們可以獲得更好的性能,縮放系數可以由用戶自己決定。EfficientNet有8種實現(從B0到B7)。


為我們的用例利用和調整預訓練模型的方法

由于我們所處理的數據與預訓練模型所訓練的數據不同,因此需要根據我們的數據更新模型的權重,以了解特定領域的信息。因此,我們需要對數據的模型進行微調。

下面我們將討論一些在特定用例中使用預先訓練過的模型的機制。

特征提取- 使用預訓練模型作為特征提取機制。我們可以移除輸出層(即給出了1000個類中每個類的概率),然后使用整個網絡作為新數據集的固定特征提取器。

訓練一些層,同時凍結其他層- 預訓練的模型可以用來部分訓練我們的模型,其中我們保持初始層的權重凍結,并重新訓練更高層的權重。根據一些實驗,我們可以看到有多少層需要凍結,有多少層需要訓練。

使用預訓練模型的體系結構- 我們可以從模型的體系結構中獲得幫助,并使用它隨機初始化模型的權重。然后我們可以根據我們的數據集和任務訓練模型,這樣我們就有了一個很好的架構,可以為我們的任務帶來很好的結果。

在處理任何類型的圖像分類問題時,微調和使用預先訓練的模型是一個聰明的解決方案。此外,這些傳統的/預先訓練的CNN模型也產生了良好的結果,然而,這些架構在對基于紋理的數據集進行分類時表現不佳。


為什么傳統的CNN架構在基于紋理的數據集的分類任務中表現不佳?

a86219a6-3ac0-11ed-b180-dac502259ad0.png

圖5,傳統CNN結構的4個主要部分傳統的CNN架構通常包括預訓練層,在此基礎上添加一些CNN層的可訓練塊,然后將其輸出傳遞到全連接層進行類預測。由圖5可以看出,傳統的CNN架構主要有四個主要組件,用A、B、C、和D四個塊來描述。第一個分量是輸入層(描述為塊A),第二個是預先訓練的層/權值(描述為塊B),第三個分量是可訓練的CNN塊(描述為塊C),它的輸出傳遞給第四個分量(描述為塊D)的全連接層。傳遞給全連接層的輸入通常包括全局特征而不是局部特征。這種通用架構適用于大多數需要圖像全局特征來對圖像進行分類的任務。然而,這些類型的架構很無法很準確的預測類別,在這些類中,全局特征和局部特征都參與了類的預測。

CNN模型的復雜性隨著網絡深度的增加而增加,最后一層通常傾向于捕捉圖像的復雜特征。從卷積層捕獲的特征被發送到全連接層,以獲取圖像中物體的形狀信息并預測其類別。這些關于整體形狀和高度復雜特征的信息不適合用于紋理分析,因為紋理是基于復雜度較低的重復局部位置模式,這需要豐富的基于局部的特征提取。

為了利用為圖像分類而開發的基于CNN的模型進行紋理分類,利用網絡的CNN層輸出中提取的特征進行域轉移。在使用預先訓練的CNN進行基于紋理的分類時,我們面臨三個主要缺點,如下所示。

眾所周知,任何圖像的紋理都是通過其局部結構和局部像素分布來定義的。要分析任何圖像的紋理特征,必須研究其基于局部的特征,并將其傳遞給全連接層。但是傳統的CNN不能將基于局部的特征傳遞給全連接層,因為傳統CNN架構的最后一個CNN層是利用復雜的特征來捕捉物體的整體形狀,并提取全局特征(如圖5所示),而不是捕捉局部特征的模式。這就是傳統CNN架構在基于紋理的數據集上表現不佳的原因。

預訓練的CNN的更深層可能是非常具體的領域,可能不是很有用的紋理分類

一個固定大小的輸入需要發送到CNN,以便它與全連接層兼容。這通常是一項昂貴的任務

全連接的層發布卷積層捕捉圖像的空間布局,這對于表示物體的形狀很有用,但對于表示紋理卻不太有用

在已有的CNNs中加入紋理提取特征技術,可以提高紋理分類任務的結果。表1比較了傳統的CNN方法vs方法使用Resnet-50骨干以及一些特征提取技術。a8947c70-3ac0-11ed-b180-dac502259ad0.png表1,傳統CNN模型和使用特征提取技術的Resnet-50在基準數據集上的結果比較將紋理特征提取策略與深度學習相結合的模型往往比傳統的深度學習方法產生更好的結果。這是因為傳統的CNN模型捕捉了通常對目標檢測有用的復雜特征,而紋理是使用局部重復的模式/特征識別的。可以使用自定義的深度卷積網絡來改進CNN,在卷積層之后,隨著CNN引入各種紋理提取技術。將紋理提取層和預訓練層結合在一起的自定義深度卷積網絡不如單獨使用預訓練模型或統計地使用紋理特征提取器靈活。我們將在后面的文章中討論紋理特征提取和預訓練模型。

原文:https://medium.com/@trapti.kalra_ibm/why-traditional-cnns-may-fail-for-texture-based-classification-3b49d6b94b6f

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cnn
    cnn
    +關注

    關注

    3

    文章

    352

    瀏覽量

    22237
收藏 人收藏

    評論

    相關推薦

    使用卷積神經網絡進行圖像分類的步驟

    使用卷積神經網絡(CNN)進行圖像分類是一個涉及多個步驟的過程。 1. 問題定義 確定目標 :明確你想要分類的圖像類型,例如貓和狗、不同的植物種類等。 數據需求 :確定需要多少
    的頭像 發表于 11-15 15:01 ?318次閱讀

    如何評估AI大模型的效果

    、SuperGLUE、SQuAD等。這些數據提供了不同任務的基準評估,使得不同模型同一任務的性能可以進行直接比較。 二、多樣性和覆蓋
    的頭像 發表于 10-23 15:21 ?1080次閱讀

    逆變器的效果不好和電容有關系嗎

    逆變器的效果不好確實可能與電容有一定的關系。電容作為逆變器中的關鍵元器件之一,對逆變器的性能有著重要的影響。以下是詳細的分析: 電容逆變器中的作用 平穩輸出電壓 :逆變器中的直流電壓通過電容的濾波
    的頭像 發表于 08-28 15:53 ?1242次閱讀

    CNN的定義和優勢

    CNN是模型還是算法的問題,實際它兼具了兩者的特性,但更側重于作為一種模型存在。本文將從CNN的定義、結構、原理、應用等多個方面進行深入探討,旨在全面解析CNN的本質及其
    的頭像 發表于 07-05 17:37 ?4279次閱讀

    yolox_bytetrack_osd_encode示例自帶的yolox模型效果不好是怎么回事?

    : yolox_bytetrack_s_int8_4b.bmodel 模型是基于什么數據集訓練的 問題2:yolox_bytetrack_s_int8_4b.bmodel ,yolox官方自帶的 非盒子環境驗證過,效果還是不錯
    發表于 07-05 07:51

    cnn卷積神經網絡分類有哪些

    卷積神經網絡(CNN)是一種深度學習模型,廣泛應用于圖像分類、目標檢測、語義分割等領域。本文將詳細介紹CNN分類任務中的應用,包括基本結構
    的頭像 發表于 07-03 09:28 ?633次閱讀

    cnn卷積神經網絡三大特點是什么

    (Local Connectivity) 局部連接是CNN的核心特點之一,它允許網絡處理圖像時只關注局部區域的特征。與傳統的全連接神經網絡不同,CNN的卷積層只對輸入
    的頭像 發表于 07-03 09:26 ?1388次閱讀

    CNN模型的基本原理、結構、訓練過程及應用領域

    (Convolutional Layer),它通過卷積運算提取輸入數據的特征,然后通過池化層(Pooling Layer)和全連接層(Fully Connected Layer)進行特征的進一步處理和分類。本文將詳細介紹
    的頭像 發表于 07-02 15:26 ?3757次閱讀

    卷積神經網絡cnn模型有哪些

    (Convolutional Layer) 卷積層是CNN的核心,用于提取圖像的局部特征。卷積操作通過滑動窗口(濾波器或卷積核)輸入數據上進行計算,生成特征圖(Feature Map)。卷積核的權重在訓練
    的頭像 發表于 07-02 15:24 ?730次閱讀

    深度神經網絡模型cnn的基本概念、結構及原理

    ,其核心是構建具有多層結構的神經網絡模型,以實現對復雜數據的高效表示和處理。眾多深度學習模型中,卷積神經網絡(CNN)因其圖像識別等領域的卓越性能而備受關注。
    的頭像 發表于 07-02 10:11 ?9768次閱讀

    卷積神經網絡文本分類領域的應用

    自然語言處理(NLP)領域,文本分類一直是一個重要的研究方向。隨著深度學習技術的飛速發展,卷積神經網絡(Convolutional Neural Network,簡稱CNN圖像識
    的頭像 發表于 07-01 16:25 ?739次閱讀

    基于毫米波雷達的手勢識別神經網絡

    出的網絡的有效性,我們將其與其他四種常用于動作識別的深度學習網絡進行了比較:CNN、3D-CNN、CNNLSTM和CNN-GRU。我們收集的手勢
    發表于 05-23 12:12

    咳嗽檢測深度神經網絡算法

    哮喘、支氣管炎和百日咳發生時的咳嗽音頻信號的方法。在此,使用巴特沃斯高通濾波器進行預處理,并使用MFCC進行特征提取。此外,使用咳嗽特征的訓練數據,使用改進的CNN完成了咳嗽聲音的分類
    發表于 05-15 19:05

    基于毫米波的人體跟蹤和識別算法

    了RadHAR,這是一種使用稀疏和非均勻點云執行精確HAR的框架。RadHAR利用滑動時間窗口來累積毫米波雷達的點云,并生成體素化表示,作為分類器的輸入。 我們收集的具有5種不同活動的人類活動數據
    發表于 05-14 18:40

    比較基于無人機高光譜影像和傳統方法的土壤類型分類精度

    土壤科學和農業領域,準確地識別和分類土壤類型對于有效的土壤管理至關重要。傳統的土壤調查和分類方法通常依賴于人工野外調查和實地取樣,這種方法費時費力且成本較高。然而,隨著技術的不斷發展
    的頭像 發表于 02-19 16:55 ?454次閱讀
    比較基于無人機高光譜影像和<b class='flag-5'>傳統</b>方法的土壤類型<b class='flag-5'>分類</b>精度
    主站蜘蛛池模板: 奶头从情趣内衣下露了出来AV| 国产超嫩一线天在线播放| 欧美日韩中文在线字幕视频| 久久国产视频网| 啦啦啦WWW在线观看免费高清版| 内射少妇三洞齐开| 善良的小峓子2在钱中文版女主角 善良的小峓子2在钱免费中文字 | 少妇高潮A视频| A级韩国乱理伦片在线观看| 成人免费视频无遮挡在线看| 国产片MV在线观看| 久久精品一区二区免费看| 日本真人啪啪试看30秒| 亚洲AV天堂无码麻豆电影| 在线观看中文字幕国产| a级销魂美女| 男女肉大捧进出全过程免费| 在线播放av欧美无码碰| 久久精品热播在线看| 中文字幕午夜福利片| 国产成人免费在线观看| 四房播播最新地址| 91女神娇喘| 国产午夜亚洲精品区| 欧美末成年videos丨| beeg日本老妇人| 久久久精品久久久久特色影视| 一本道高清不卡v免费费| 高肉黄暴NP文公交车| 美女内射少妇一区二区四区| 亚洲精品久久久无码| 成电影人免费网站| 免费成人小视频| 成 人 动漫3d 在线看| 香蕉精品国产高清自在自线| 东京热无码中文字幕av专区| 男女免费观看在线爽爽爽视频| 草莓国产视频免费观看| 亚洲 无码 在线 专区| 两个奶头被吃得又翘又痛| 伊人久久电影院|