色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在一個很小的Pascal VOC數據集上訓練一個實例分割模型

新機器視覺 ? 來源:新機器視覺 ? 作者:Kayo Yin ? 2020-12-26 11:26 ? 次閱讀

只使用1349張圖像訓練Mask-RCNN,有代碼。

代碼:https://github.com/kayoyin/tiny-inst-segmentation

介紹

計算機視覺的進步帶來了許多有前途的應用,如自動駕駛汽車或醫療診斷。在這些任務中,我們依靠機器的能力來識別物體。

我們經常看到的與目標識別相關的任務有4個:分類和定位、目標檢測、語義分割和實例分割。

在分類和定位中,我們感興趣的是為圖像中目標的分配類標簽,并在目標周圍繪制一個包圍框。在這個任務中,要檢測的目標數量是固定的。

物體檢測不同于分類和定位,因為這里我們沒有預先假設圖像中物體的數量。我們從一組固定的目標類別開始,我們的目標是分配類標簽,并在每次這些類別中的一個目標出現在圖像中時繪制邊界框。

在語義分割中,我們為每個圖像像素分配一個類標簽:所有屬于草的像素被標記為“grass”,屬于羊的像素被標記為“sheep”。值得注意的是,例如,這個任務不會對兩只羊產生區別。

我們的任務是實例分割,它建立在目標檢測和語義分割之上。在目標檢測中,我們的目標是在預定義的類別中標記和定位目標的所有實例。但是,我們沒有為檢測到的目標生成邊界框,而是進一步識別哪些像素屬于該目標,就像語義分割一樣。與語義分割不同的是,實例分割為每個目標實例繪制一個單獨的掩碼,而語義分割將為同一類的所有實例使用相同的掩碼。

在本文中,我們將在一個很小的Pascal VOC數據集上訓練一個實例分割模型,其中只有1349張圖像用于訓練,100張圖像用于測試。這里的主要挑戰是在不使用外部數據的情況下防止模型過擬合。

數據處理

標注采用COCO格式,因此我們可以使用pycocotools中的函數來檢索類標簽和掩碼。在這個數據集中,共有20個類別。

cb474dc4-4698-11eb-8b86-12bb97331649.png

下面是一些訓練圖像和相關mask的可視化顯示。mask的不同陰影表示同一目標類別的多個實例的不同掩碼。

圖像的大小和長寬比各不相同,因此在將圖像輸入模型之前,我們調整每個圖像的尺寸500x500。當圖像尺寸小于500時,我們對圖像進行優化,使最大邊的長度為500,并添加必要的零以獲得正方形圖像。

為了使模型能夠很好地泛化,特別是在這樣一個有限的數據集上,數據增強是克服過擬合的關鍵。對于每一個圖像,以0.5的概率水平翻轉,以0.9到1倍的尺度進行隨機剪裁,以0.5的概率進行高斯模糊,標準差為隨機,對比度隨機調整尺度為0.75和1.5之間,亮度隨機調整尺度在0.8和1.2之間,以及一系列隨機仿射變換如縮放、平移、旋轉,剪切。

Mask-RCNN

我們使用matterport實現的Mask-RCNN進行訓練。雖然結果可能會很好看,但我們不會用MS COCO的預訓練權重來展示我們如何只用1349張訓練圖像就能得到好的結果。

Mask-RCNN是在2017年Mask-RCNN論文中提出的,是同一作者對Faster-RCNN的擴展。Faster-RCNN被廣泛應用于目標檢測,模型在被檢測物體周圍生成包圍盒。Mask-RCNN進一步生成了目標的mask 。

我將在下面簡要介紹模型體系結構。

首先,我們使用一個主干模型從輸入圖像中提取相關的特征。在這里,我們使用ResNet101架構作為骨干。圖像由張量(500,500,3)轉換為特征圖(32,32,2048)。

然后將之前獲得的特征輸入到一個區域建議網絡(RPN)中。RPN掃描feature map的區域,稱為anchors,并嘗試確定包含目標的區域。這些anchor的尺寸和縱橫比各不相同。RPN為每個anchor分配一個類別:前景(正樣本anchor)或背景(負樣本anchor)。中性anchor是指不影響訓練的anchor。

正樣本anchors(左),中性anchors(中),負樣本anchors(右)

建議層然后挑選最有可能包含目標的anchor,并優化anchor框以更接近目標。當太多anchor點重疊時,只保留前景分數最高的那個(非最大抑制)。這樣,我們就得到了感興趣的區域(ROI)。

對于每個由ROI分類器選中的目標區域,模型生成28x28的mask。在訓練過程中,將 ground truth mask縮小,用預測的mask計算損失,在推理過程中,將生成的mask放大到ROI的邊界框大小。

遷移學習

特別是在數據有限的情況下,更快更好地訓練模型的關鍵是遷移學習。Imagenet數據集是一個巨大的自然圖像語料庫,類似于我們的圖像。因此,我們可以將Resnet101骨干模型的權值初始化為在Imagenet上預先訓練的權值。這將提高我們得到的特征圖的準確性,從而提高整個模型。

為了微調在Imagenet上預訓練的模型,我們首先只訓練model heads。然后我們在剩下的epochs中訓練從ResNet level 4和以上的層。這個訓練方案也有助于最小化過擬合。我們可以不去微調第一層,因為我們可以重用模型從自然圖像中提取特征的權重。

結果 & 檢測pipeline可視化

我們的測試集上獲得的mAP為0. 53650。下面是隨機選擇測試圖像的模型輸出的一些可視化結果:

我們還可以看到算法不同步驟的輸出。下面,我們有在邊界框細化之前的top anchors的得分。

接下來,我們有了細化的邊界框和非最大抑制后的輸出。這些建議然后被輸入分類網絡。注意,在這里,我們有一些框框住了一些目標,比如標志,這些目標不屬于我們定義的目標類別。

在建議區域上運行分類網絡,得到正樣本的檢測,生成類概率和邊界框回歸。

在得到邊界框并對其進行細化后,實例分割模型為每個檢測到的目標生成mask。mask是soft masks(具有浮點像素值),在訓練時大小為28x28。

最后,預測的mask被調整為邊界框的尺寸,我們可以將它們覆蓋在原始圖像上以可視化最終的輸出。

英文原文:https://towardsdatascience.com/overcome-overfitting-during-instance-segmentation-with-mask-rcnn-32db91f400bc

責任編輯:xj

原文標題:使用Mask-RCNN在實例分割應用中克服過擬合

文章出處:【微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 計算機視覺
    +關注

    關注

    8

    文章

    1698

    瀏覽量

    45977
  • mask
    +關注

    關注

    0

    文章

    10

    瀏覽量

    2905

原文標題:使用Mask-RCNN在實例分割應用中克服過擬合

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    從零開始訓練大語言模型需要投資多少錢?

    ,前言 ? AI領域,訓練大型語言模型(LLM)是
    的頭像 發表于 11-08 14:15 ?199次閱讀
    從零開始<b class='flag-5'>訓練</b><b class='flag-5'>一</b><b class='flag-5'>個</b>大語言<b class='flag-5'>模型</b>需要投資多少錢?

    使用PyTorch英特爾獨立顯卡訓練模型

    《PyTorch 2.5重磅更新:性能優化+新特性》中的新特性就是:正式支持英特爾獨立顯卡訓練
    的頭像 發表于 11-01 14:21 ?370次閱讀
    使用PyTorch<b class='flag-5'>在</b>英特爾獨立顯卡<b class='flag-5'>上</b><b class='flag-5'>訓練</b><b class='flag-5'>模型</b>

    AI大模型訓練數據來源分析

    學術機構、政府組織或企業公開發布,涵蓋了各種類型的數據,如圖像、文本、音頻、視頻等。例如: ImageNet :廣泛用于圖像識別任務的大規模圖像數據
    的頭像 發表于 10-23 15:32 ?544次閱讀

    如何訓練自己的AI大模型

    訓練自己的AI大模型復雜且耗時的過程,涉及多個關鍵步驟。以下是詳細的
    的頭像 發表于 10-23 15:07 ?1285次閱讀

    如何訓練有效的eIQ基本分類模型

    在 MCX CPU和eIQ Neutron NPU。 eIQPortal它是直觀的圖形用戶界面(GUI),簡化了ML開發。開發人員可以創建、優化、調試和導出ML模型,以及導入
    的頭像 發表于 08-01 09:29 ?1803次閱讀
    如何<b class='flag-5'>訓練</b><b class='flag-5'>一</b><b class='flag-5'>個</b>有效的eIQ基本分類<b class='flag-5'>模型</b>

    PyTorch中搭建最簡單的模型

    PyTorch中搭建最簡單的模型通常涉及幾個關鍵步驟:定義模型結構、加載數據、設置損失函數
    的頭像 發表于 07-16 18:09 ?1958次閱讀

    20個數據可以訓練神經網絡嗎

    當然可以,20個數據點對于訓練神經網絡來說可能非常有限,但這并不意味著它們不能用于訓練。實際
    的頭像 發表于 07-11 10:29 ?846次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的重要概念,尤其是自然語言處理(NLP)和計算機視覺(CV)
    的頭像 發表于 07-03 18:20 ?2766次閱讀

    PyTorch如何訓練自己的數據

    PyTorch是廣泛使用的深度學習框架,它以其靈活性、易用性和強大的動態圖特性而聞名。訓練深度學習模型時,
    的頭像 發表于 07-02 14:09 ?1640次閱讀

    深度學習模型訓練過程詳解

    深度學習模型訓練復雜且關鍵的過程,它涉及大量的數據、計算資源和精心設計的算法。訓練
    的頭像 發表于 07-01 16:13 ?1235次閱讀

    【大語言模型:原理與工程實踐】大語言模型的預訓練

    訓練數據時,數量、質量和多樣性三者缺不可。 數據的多樣性對于大語言模型至關重要,這主要體現在數據
    發表于 05-07 17:10

    Harvard FairSeg:第一個用于醫學分割的公平性數據

    為了解決這些挑戰,我們提出了第一個大規模醫學分割領域的公平性數據, Harvard-FairSeg。該數據
    的頭像 發表于 01-25 16:52 ?543次閱讀
    Harvard FairSeg:第<b class='flag-5'>一個</b>用于醫學<b class='flag-5'>分割</b>的公平性<b class='flag-5'>數據</b><b class='flag-5'>集</b>

    OpenCV4中聯通組件分析的缺點

    最近別人給了我生物數據分割的標注數據,讓我訓練
    的頭像 發表于 01-04 15:51 ?437次閱讀
    OpenCV4中聯通組件分析的<b class='flag-5'>一</b><b class='flag-5'>個</b>缺點

    首個無需依賴SAM的高效像素級推理大模型PixelLM問世

    步,為了支持這研究領域的模型訓練和評估,研究團隊LVIS數據
    發表于 01-04 15:08 ?518次閱讀
    首個無需依賴SAM的高效像素級推理大<b class='flag-5'>模型</b>PixelLM問世

    Kaggle知識點:訓練神經網絡的7技巧

    訓練神經網絡的挑戰訓練數據的新示例之間取得平衡。七具體的技巧,可幫助您更快地
    的頭像 發表于 12-30 08:27 ?653次閱讀
    Kaggle知識點:<b class='flag-5'>訓練</b>神經網絡的7<b class='flag-5'>個</b>技巧
    主站蜘蛛池模板: 久99视频精品免费观看福利| 色多多污污下载| 精品一区二区三区免费毛片 | 视频一区亚洲视频无码| 日本夜夜夜| 少女开女包www| 三级网址在线| 特黄特色大片免费播放器9| 色欲AV无码乱码精品国产| 色色色999| 亚洲免费网站在线观看| 亚洲欧美一区二区三区九九九 | 晚夜免费禁用十大亏亏| 无码国产成人777爽死在线观看| 丝袜美腿美女被狂躁在线观看| 全文都是肉高h文| 我们日本在线观看免费动漫下载| 香蕉久久日日躁夜夜嗓| 亚洲视频无码中字在线| 18禁黄无遮挡禁游戏在线下载| 99在线免费视频| 国产AV在线传媒麻豆| 和姐姐做插得很深| 欧美区一区二| 无码人妻精品一区二区蜜桃在线看| 亚洲精品天堂无码中文字幕影院| 一抽一出BGM免费3分钟| 北原多香子qvod| 精品第一国产综合精品蜜芽| 柠檬福利精品视频导航| 舔1V1高H糙汉| 中文字幕在线观看亚洲视频| 被黑人掹躁10次高潮| 国产这里有精品| 日本一二三区视频在线| 夜夜草导航| 国产精品 日韩精品 欧美| 久久久久久九九| 窝窝影院午夜看片毛片| 99热这里精品| 久久久久久久久亚洲|