色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

沒有大量訓(xùn)練數(shù)據(jù)時怎么生成更多的數(shù)據(jù)

汽車玩家 ? 來源:人工智能遇見磐創(chuàng) ? 作者:人工智能遇見磐創(chuàng) ? 2020-05-04 08:59 ? 次閱讀

在圖像和物體識別方面,計(jì)算機(jī)表現(xiàn)優(yōu)于人類。

像Google和Microsoft這樣的大公司在圖像識別方面已經(jīng)超越了人類基準(zhǔn)[1,2]。平均而言,人類大約有5%的時間在圖像識別任務(wù)上犯了錯誤。截至2015年,微軟的圖像識別軟件的錯誤率達(dá)到4.94%,與此同時,谷歌宣布其軟件的錯誤率降低到4.8%[3]

這是怎么做到的?

這可以通過在包含數(shù)百個對象類別、數(shù)百萬個訓(xùn)練樣本的ImageNet數(shù)據(jù)集上訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)來實(shí)現(xiàn)[1]。

百萬訓(xùn)練數(shù)據(jù)!

例如,要教計(jì)算機(jī)從多個角度識別出一只貓貓,可能需要成千上萬張涵蓋不同角度的照片。

成功訓(xùn)練計(jì)算機(jī)視覺任務(wù)的深層卷積神經(jīng)網(wǎng)絡(luò)需要大量數(shù)據(jù)。這是因?yàn)檫@些神經(jīng)網(wǎng)絡(luò)具有多個隱藏的處理層,并且隨著層數(shù)的增加,需要學(xué)習(xí)的樣本數(shù)也隨之增加。如果沒有足夠的訓(xùn)練數(shù)據(jù),則該模型往往會很好地學(xué)習(xí)訓(xùn)練數(shù)據(jù),這稱為過度擬合。如果模型過擬合,則其泛化能力很差,因此對未見的數(shù)據(jù)的表現(xiàn)很差。

但是,如果沒有大量的訓(xùn)練數(shù)據(jù)怎么辦?

對于我們手頭的所有圖像識別任務(wù),并不是都會擁有數(shù)百萬個訓(xùn)練樣本。對于某些任務(wù),收集成千上萬個樣本圖像甚至是一個挑戰(zhàn)。對于醫(yī)學(xué)圖像而言通常是這種情況,例如用于乳房癌檢測和定位的乳房X線照相術(shù),用于肺癌檢測的胸部X射線或用于定位腦腫瘤的MRI掃描。

這可以歸結(jié)為一個問題:當(dāng)我們只有有限的數(shù)據(jù)時,我們?nèi)绾斡?xùn)練能夠很好地完成這些任務(wù)的模型?

使用數(shù)據(jù)增強(qiáng)(data augmentation)生成更多訓(xùn)練數(shù)據(jù)

當(dāng)我們只有少量圖像數(shù)據(jù)用于訓(xùn)練深度卷積神經(jīng)網(wǎng)絡(luò)時,我們可以使用數(shù)據(jù)增強(qiáng)技術(shù)從已經(jīng)擁有的圖像數(shù)據(jù)中生成更多訓(xùn)練數(shù)據(jù)。

數(shù)據(jù)增強(qiáng)是一種為原始圖像生成多個圖像的技術(shù)。有幾種不同的數(shù)據(jù)增強(qiáng)技術(shù),Mikolajczyk和Grochowski在他們的論文中[4]將這些技術(shù)分為兩個子類別:使用基本圖像處理的數(shù)據(jù)增強(qiáng)和使用深度學(xué)習(xí)方法的數(shù)據(jù)增強(qiáng)。

幾何變換

諸如翻轉(zhuǎn)(Flip),裁剪(Crop),旋轉(zhuǎn)(Rotation)和移位(Translation)之類的幾何變換是一些常用的數(shù)據(jù)增強(qiáng)技術(shù)。我們將在本文中簡要討論它們。

翻轉(zhuǎn)

翻轉(zhuǎn)是取任意給定圖像的鏡像。它是最簡單的增強(qiáng)技術(shù)之一。圖像可以水平或垂直翻轉(zhuǎn)。但是,水平翻轉(zhuǎn)在這兩者之間更為常見。

裁剪

裁剪是一種數(shù)據(jù)增強(qiáng)技術(shù),用于通過裁剪邊界像素來減小原始圖像的大小。裁剪時不會保留空間尺寸。在這種類型的數(shù)據(jù)增強(qiáng)中,不能保證轉(zhuǎn)換后的圖像與原始圖像屬于相同的輸出標(biāo)簽。

在上面的圖像中,通過從左右方向裁剪像素,從原始圖像生成了四個圖像。裁剪圖像的尺寸從256x256減小到227x277。

旋轉(zhuǎn)

圖像可以在軸上向左或向右旋轉(zhuǎn)1到359度。1到20度之間的旋轉(zhuǎn)稱為輕微旋轉(zhuǎn),并且是用于增強(qiáng)原始圖像的有用技術(shù)。隨著旋轉(zhuǎn)度的增加,轉(zhuǎn)換后的數(shù)據(jù)可能無法保留其原始標(biāo)簽。

移位

翻譯是一種將圖像向左,向右,向上或向下平移的技術(shù)。這是一種非常有用的轉(zhuǎn)換技術(shù),可以避免數(shù)據(jù)中的位置偏差。移位圖像時,剩余空間將被填充為0,255或被隨機(jī)噪聲填充,從而保留了圖像的原始大小。

基于GAN的數(shù)據(jù)增強(qiáng)

生成對抗網(wǎng)絡(luò)(GAN)也稱為GAN,是一種生成建模技術(shù),其中可以從數(shù)據(jù)集中創(chuàng)建人工實(shí)例,從而保留原始集的相似特征[9]。

GAN由兩個相互競爭的人工神經(jīng)網(wǎng)絡(luò)(ANN)組成,即生成器 generator 與判別器 discriminator。生成器創(chuàng)建新的數(shù)據(jù)實(shí)例,而判別器則評估它們的真實(shí)性[10]。

這是由GAN生成的人臉圖像,這是在人臉上訓(xùn)練出來的。請注意,這些是合成的面孔,而不是真實(shí)的人。

這些是一些數(shù)據(jù)增強(qiáng)技術(shù),通常用于從有限的數(shù)據(jù)集中生成更多數(shù)據(jù),從而可以訓(xùn)練出更有效的卷積神經(jīng)網(wǎng)絡(luò)。

Olaf和他的團(tuán)隊(duì)在訓(xùn)練數(shù)據(jù)有限的情況下,利用在圖像上的平移、旋轉(zhuǎn)和隨機(jī)彈性變換等數(shù)據(jù)增強(qiáng)技術(shù)訓(xùn)練U-net體系結(jié)構(gòu)模型,并在2015年ISBI細(xì)胞追蹤挑戰(zhàn)中以較大優(yōu)勢獲得這些類別的冠軍。

因此,下次在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)時,請使用這些技術(shù)來創(chuàng)建更多數(shù)據(jù)。

你平時使用了哪些數(shù)據(jù)增強(qiáng)技術(shù)?在下面評論分享的想法。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 計(jì)算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7508

    瀏覽量

    88074
  • 圖像識別
    +關(guān)注

    關(guān)注

    9

    文章

    520

    瀏覽量

    38279
收藏 人收藏

    評論

    相關(guān)推薦

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】+數(shù)據(jù)在具身人工智能中的價值

    熟練程度,但由于其多模態(tài)性質(zhì),訓(xùn)練 EAI 模型需要更多的機(jī)器人數(shù)據(jù)。這些機(jī)器人數(shù)據(jù)包括各種傳感輸入和交互類型,不僅極具挑戰(zhàn)性,而且收集成本高昂。
    發(fā)表于 12-24 00:33

    如何使用OpenUSD構(gòu)建支持生成式AI的合成數(shù)據(jù)工作流

    訓(xùn)練用于驅(qū)動自主機(jī)器(例如機(jī)器人和自動駕駛汽車)的物理 AI 模型需要大量數(shù)據(jù)。獲取大量多樣化的訓(xùn)練數(shù)據(jù)
    的頭像 發(fā)表于 11-20 09:50 ?286次閱讀
    如何使用OpenUSD構(gòu)建支持<b class='flag-5'>生成</b>式AI的合成<b class='flag-5'>數(shù)據(jù)</b>工作流

    如何訓(xùn)練自己的LLM模型

    于什么任務(wù),比如文本生成、翻譯、問答等。 明確你的模型需要達(dá)到的性能標(biāo)準(zhǔn)。 數(shù)據(jù)收集與處理 : 收集大量的文本數(shù)據(jù),這些數(shù)據(jù)將用于
    的頭像 發(fā)表于 11-08 09:30 ?579次閱讀

    AI大模型的訓(xùn)練數(shù)據(jù)來源分析

    學(xué)術(shù)機(jī)構(gòu)、政府組織或企業(yè)公開發(fā)布,涵蓋了各種類型的數(shù)據(jù),如圖像、文本、音頻、視頻等。例如: ImageNet :一個廣泛用于圖像識別任務(wù)的大規(guī)模圖像數(shù)據(jù)集。 Common Crawl :提供了大量的網(wǎng)頁抓取
    的頭像 發(fā)表于 10-23 15:32 ?701次閱讀

    生成大量獨(dú)立的PWMs

    電子發(fā)燒友網(wǎng)站提供《生成大量獨(dú)立的PWMs.pdf》資料免費(fèi)下載
    發(fā)表于 09-19 10:58 ?0次下載
    <b class='flag-5'>生成大量</b>獨(dú)立的PWMs

    NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

    Nemotron-4 340B 是針對 NVIDIA NeMo 和 NVIDIA TensorRT-LLM 優(yōu)化的模型系列,該系列包含最先進(jìn)的指導(dǎo)和獎勵模型,以及一個用于生成式 AI 訓(xùn)練數(shù)據(jù)集。
    的頭像 發(fā)表于 09-06 14:59 ?327次閱讀
    NVIDIA Nemotron-4 340B模型幫助開發(fā)者<b class='flag-5'>生成</b>合成<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>

    TCP傳輸大量數(shù)據(jù)時丟失數(shù)據(jù)的原因?

    當(dāng)TCP用于傳輸大量數(shù)據(jù)時,要找到數(shù)據(jù)丟失的地方,當(dāng)TCP傳輸大量數(shù)據(jù)時,數(shù)據(jù)包丟失,包錯。 具
    發(fā)表于 07-12 15:03

    20個數(shù)據(jù)可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)嗎

    是一種強(qiáng)大的機(jī)器學(xué)習(xí)模型,可以處理各種復(fù)雜的任務(wù),如圖像識別、自然語言處理和游戲。然而,訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)通常需要大量數(shù)據(jù)。在某些情況下,我們可能只有有限的數(shù)據(jù)可用,例如20個
    的頭像 發(fā)表于 07-11 10:29 ?939次閱讀

    pytorch如何訓(xùn)練自己的數(shù)據(jù)

    本文將詳細(xì)介紹如何使用PyTorch框架來訓(xùn)練自己的數(shù)據(jù)。我們將從數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、訓(xùn)練過程、評估和測試等方面進(jìn)行講解。 環(huán)境搭建 首先,我們需要安裝PyTorch??梢酝ㄟ^訪問Py
    的頭像 發(fā)表于 07-11 10:04 ?551次閱讀

    巴西禁止Meta使用用戶數(shù)據(jù)訓(xùn)練AI

    巴西數(shù)據(jù)保護(hù)局于7月2日對全球科技巨頭Meta公司發(fā)出嚴(yán)厲警告,明確要求其不得利用巴西用戶的個人數(shù)據(jù)訓(xùn)練生成式人工智能模型。此禁令直接指向Meta旗下廣受歡迎的社交平臺,如“臉書”和
    的頭像 發(fā)表于 07-05 16:40 ?918次閱讀

    PyTorch如何訓(xùn)練自己的數(shù)據(jù)

    PyTorch是一個廣泛使用的深度學(xué)習(xí)框架,它以其靈活性、易用性和強(qiáng)大的動態(tài)圖特性而聞名。在訓(xùn)練深度學(xué)習(xí)模型時,數(shù)據(jù)集是不可或缺的組成部分。然而,很多時候,我們可能需要使用自己的數(shù)據(jù)集而不是現(xiàn)成
    的頭像 發(fā)表于 07-02 14:09 ?1760次閱讀

    定制化、精細(xì)化、場景化AI訓(xùn)練數(shù)據(jù)趨于基礎(chǔ)數(shù)據(jù)服務(wù)市場主流

    算法、算力和數(shù)據(jù)共同構(gòu)成了AI產(chǎn)業(yè)鏈技術(shù)發(fā)展的三大核心要素。在人工智能行業(yè)發(fā)展進(jìn)程中,有監(jiān)督的深度學(xué)習(xí)算法是推動人工智能技術(shù)取得突破性發(fā)展的關(guān)鍵技術(shù)理論,而大量訓(xùn)練數(shù)據(jù)的支撐則是有監(jiān)督
    的頭像 發(fā)表于 06-26 15:01 ?390次閱讀
    定制化、精細(xì)化、場景化AI<b class='flag-5'>訓(xùn)練</b><b class='flag-5'>數(shù)據(jù)</b>趨于基礎(chǔ)<b class='flag-5'>數(shù)據(jù)</b>服務(wù)市場主流

    數(shù)據(jù)在軍事訓(xùn)練領(lǐng)域的應(yīng)用有哪些

    量身定制個性化的訓(xùn)練計(jì)劃。這種基于大數(shù)據(jù)訓(xùn)練計(jì)劃能夠充分發(fā)揮每個士兵的潛力,提高訓(xùn)練效果。 智慧華盛恒輝實(shí)時監(jiān)控與反饋: 利用大數(shù)據(jù)技術(shù),
    的頭像 發(fā)表于 06-23 10:21 ?654次閱讀

    【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練

    具有以下三個非常顯著的特點(diǎn),一個就是模型參數(shù)規(guī)模更大,訓(xùn)練數(shù)據(jù)更多。當(dāng)然,對計(jì)算資源的要求也會更高。 構(gòu)建強(qiáng)大的語言模型時,模型的選型至關(guān)重要,涉及模型的基本架構(gòu),包括模型的主要結(jié)構(gòu),表策策略,激活
    發(fā)表于 05-07 17:10

    DocuSign擬用用戶合同數(shù)據(jù)訓(xùn)練AI,引爭議

    據(jù)了解,DocuSign計(jì)劃借助微軟Azure上的OpenAI工具,如GPT技術(shù),以訓(xùn)練其所謂的“撰寫協(xié)議”模型,并且從用戶提供的大量數(shù)據(jù)中,訓(xùn)練出專屬的人工智能(AI)模型,但這部分
    的頭像 發(fā)表于 03-04 15:45 ?556次閱讀
    主站蜘蛛池模板: 亚洲卫视论坛| 无码国产精品高潮久久9| 成人国产亚洲欧美成人综合网| 私密按摩师在线观看 百度网盘| 精品99久久久久成人网站| 成人毛片100部免费看| 中文字幕在线视频在线看| 亚洲国语在线视频手机在线| 日本高清无人区影院| 美女扒开尿口直播| 精品 在线 视频 亚洲| 国产精品高清视亚洲一区二区| 中文字幕无码乱人伦蜜桃| 性色爽爱性色爽爱网站| 日韩欧美精品有码在线播放| 免费看大黄高清网站视频在线| 狠狠色丁香婷婷久久综合五月| 国产成人在线免费观看| jizzjizz3d动漫| 99久久99久久精品| 一本道在线综合久久88| 亚洲 欧美 视频 手机在线| 日韩精品在线观看免费| 强壮的公次次弄得我高潮韩国电影 | 厕所xxxxx| WWW国产精品内射老师| free18sex性自拍裸舞| 99国产精品| 边做边爱免费视频| 成人小视频免费在线观看| 爱情岛aqdlttv| 国产69精品久久久久乱码免费 | 18美女腿打开无遮软件| 97在线观看成人免费视频| 97人妻在线公开视频在线观看| 99久久免费看少妇高潮A片| 9位美女厕所撒尿11分| 国产97碰免费视频| 国产午夜理论片YY8840Y| 久久国产加勒比精品无码| 伦理片在线线看手机版|