色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

李飛飛等人提出Auto-DeepLab:自動(dòng)搜索圖像語(yǔ)義分割架構(gòu)

電子工程師 ? 來(lái)源:lq ? 2019-01-15 13:51 ? 次閱讀

過(guò)去,神經(jīng)網(wǎng)絡(luò)架構(gòu)大部分都是由人類研究者手動(dòng)開(kāi)發(fā)的,這個(gè)過(guò)程非常耗時(shí)且容易出錯(cuò)。神經(jīng)架構(gòu)自動(dòng)搜索(NAS)技術(shù)解放了人類工作,也讓模型效率有了提升。在大規(guī)模圖像分類問(wèn)題上,自動(dòng)算出的模型已經(jīng)超越了人類設(shè)計(jì)的模型。

近日,斯坦福大學(xué)李飛飛組的研究者提出了 Auto-DeepLab,其在圖像語(yǔ)義分割問(wèn)題上超越了很多業(yè)內(nèi)最佳模型,甚至可以在未經(jīng)過(guò)預(yù)訓(xùn)練的情況下達(dá)到預(yù)訓(xùn)練模型的表現(xiàn)。Auto-DeepLab 開(kāi)發(fā)出與分層架構(gòu)搜索空間完全匹配的離散架構(gòu)的連續(xù)松弛,顯著提高架構(gòu)搜索的效率,降低算力需求。

深度神經(jīng)網(wǎng)絡(luò)已經(jīng)在很多人工智能任務(wù)上取得了成功,包括圖像識(shí)別、語(yǔ)音識(shí)別、機(jī)器翻譯等。雖然更好的優(yōu)化器 [36] 和歸一化技術(shù) [32, 79] 在其中起了重要作用,但很多進(jìn)步要?dú)w功于神經(jīng)網(wǎng)絡(luò)架構(gòu)的設(shè)計(jì)。在計(jì)算機(jī)視覺(jué)中,這適用于圖像分類和密集圖像預(yù)測(cè)。

表 1:本研究提出的模型 Auto-DeepLab 和其它雙層 CNN 架構(gòu)的對(duì)比。主要區(qū)別有:(1) Auto-DeepLab 直接搜索用于語(yǔ)義分割的 CNN 架構(gòu);(2) Auto-DeepLab 搜索網(wǎng)絡(luò)級(jí)架構(gòu)和單元級(jí)架構(gòu);(3) Auto-DeepLab 的高效搜索在一個(gè) P100 GPU 上僅需 3 天。

最近,在AutoML和 AI 民主化的影響下,人們對(duì)自動(dòng)化設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)架構(gòu)產(chǎn)生了極大興趣,自動(dòng)化設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)無(wú)需嚴(yán)重依賴專家經(jīng)驗(yàn)和知識(shí)。更重要的是,去年神經(jīng)架構(gòu)搜索(NAS)成功找到了在大規(guī)模圖像分類任務(wù)上超越人類設(shè)計(jì)架構(gòu)的網(wǎng)絡(luò)架構(gòu) [92, 47, 61]。

圖像分類對(duì) NAS 來(lái)說(shuō)是一個(gè)很好的起點(diǎn),因?yàn)樗亲罨A(chǔ)且研究最深入的高級(jí)識(shí)別任務(wù)。此外,該研究領(lǐng)域存在具有規(guī)模相對(duì)較小的基準(zhǔn)數(shù)據(jù)集(如 CIFAR-10),從而減少了計(jì)算量并加快了訓(xùn)練速度。然而,圖像分類不應(yīng)該是 NAS 的終點(diǎn),現(xiàn)下的成功表明它可以擴(kuò)展至要求更高的領(lǐng)域。在本文中,作者研究了用于語(yǔ)義圖像分割的神經(jīng)架構(gòu)搜索。這是一項(xiàng)重要的計(jì)算機(jī)視覺(jué)任務(wù),它為輸入圖像的每個(gè)像素分配標(biāo)簽,如「人」或「自行車」。

簡(jiǎn)單地移植圖像分類的方法不足以進(jìn)行語(yǔ)義分割。在圖像分類中,NAS 通常使用從低分辨率圖像到高分辨率圖像的遷移學(xué)習(xí) [92],而語(yǔ)義分割的最佳架構(gòu)必須在高分辨率圖像上運(yùn)行。這表明,本研究需要:(1) 更松弛、更通用的搜索空間,以捕捉更高分辨率導(dǎo)致的架構(gòu)變體;(2) 更高效的架構(gòu)搜索技術(shù),因?yàn)楦叻直媛市枰挠?jì)算量更大。

作者注意到,現(xiàn)代 CNN 設(shè)計(jì)通常遵循兩級(jí)分層結(jié)構(gòu),其中外層網(wǎng)絡(luò)控制空間分辨率的變化,內(nèi)層單元級(jí)架構(gòu)管理特定的分層計(jì)算。目前關(guān)于 NAS 的絕大多數(shù)研究都遵循這個(gè)兩級(jí)分層設(shè)計(jì),但只自動(dòng)化搜索內(nèi)層網(wǎng)絡(luò),而手動(dòng)設(shè)計(jì)外層網(wǎng)絡(luò)。這種有限的搜索空間對(duì)密集圖像預(yù)測(cè)來(lái)說(shuō)是一個(gè)問(wèn)題,密集圖像預(yù)測(cè)對(duì)空間分辨率變化很敏感。因此在本研究中,作者提出了一種格子狀的網(wǎng)絡(luò)級(jí)搜索空間,該搜索空間可以增強(qiáng) [92] 首次提出的常用單元級(jí)搜索空間,以形成分層架構(gòu)搜索空間。本研究的目標(biāo)是聯(lián)合學(xué)習(xí)可重復(fù)單元結(jié)構(gòu)和網(wǎng)絡(luò)結(jié)構(gòu)的良好組合,用于語(yǔ)義圖像分割。

就架構(gòu)搜索方法而言,強(qiáng)化學(xué)習(xí)和進(jìn)化算法往往是計(jì)算密集型的——即便在低分辨率數(shù)據(jù)集 CIFAR-10 上,因此它們不太適合語(yǔ)義圖像分割任務(wù)。受 NAS 可微分公式 [68, 49] 的啟發(fā),本研究開(kāi)發(fā)出與分層架構(gòu)搜索空間完全匹配的離散架構(gòu)的連續(xù)松弛。分層架構(gòu)搜索通過(guò)隨機(jī)梯度下降實(shí)施。當(dāng)搜索終止時(shí),最好的單元架構(gòu)會(huì)被貪婪解碼,而最好的網(wǎng)絡(luò)架構(gòu)會(huì)通過(guò)維特比算法得到有效解碼。作者在從 Cityscapes 數(shù)據(jù)集中裁剪的 321×321 圖像上直接搜索架構(gòu)。搜索非常高效,在一個(gè) P100 GPU 上僅需 3 天。

作者在多個(gè)語(yǔ)義分割基準(zhǔn)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),包括 Cityscapes、PASCAL VOC 2012 和 ADE20K。在未經(jīng) ImageNet 預(yù)訓(xùn)練的情況下,最佳 Auto-DeepLab 模型在 Cityscapes 測(cè)試集上的結(jié)果超過(guò) FRRN-B 8.6%,超過(guò) GridNet 10.9%。在利用 Cityscapes 粗糙標(biāo)注數(shù)據(jù)的實(shí)驗(yàn)中,Auto-DeepLab 與一些經(jīng)過(guò) ImageNet 預(yù)訓(xùn)練的當(dāng)前最優(yōu)模型的性能相近。值得注意的是,本研究的最佳模型(未經(jīng)過(guò)預(yù)訓(xùn)練)與 DeepLab v3+(有預(yù)訓(xùn)練)的表現(xiàn)相近,但在 MultiAdds 中前者的速度是后者的 2.23 倍。另外,Auto-DeepLab 的輕量級(jí)模型性能僅比 DeepLab v3+ 低 1.2%,而參數(shù)量需求卻少了 76.7%,在 MultiAdds 中的速度是 DeepLab v3+ 的 4.65 倍。在 PASCAL VOC 2012 和 ADE29K 上,Auto-DeepLab 最優(yōu)模型在使用極少數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練的情況下,性能優(yōu)于很多當(dāng)前最優(yōu)模型。

本論文主要貢獻(xiàn)如下:

這是首次將 NAS 從圖像分類任務(wù)擴(kuò)展到密集圖像預(yù)測(cè)任務(wù)的嘗試之一。

該研究提出了一個(gè)網(wǎng)絡(luò)級(jí)架構(gòu)搜索空間,它增強(qiáng)和補(bǔ)充了已經(jīng)得到深入研究的單元級(jí)架構(gòu)搜索,并對(duì)網(wǎng)絡(luò)級(jí)和單元級(jí)架構(gòu)進(jìn)行更具挑戰(zhàn)性的聯(lián)合搜索。

本研究提出了一種可微的連續(xù)方式,保證高效運(yùn)行兩級(jí)分層架構(gòu)搜索,在一個(gè) GPU 上僅需 3 天。

在未經(jīng) ImageNet 預(yù)訓(xùn)練的情況下,Auto-DeepLab 模型在 Cityscapes 數(shù)據(jù)集上的性能顯著優(yōu)于 FRRN-B 和 GridNet,同時(shí)也和 ImageNet 預(yù)訓(xùn)練當(dāng)前最佳模型性能相當(dāng)。在 PASCAL VOC 2012 和 ADE20K 數(shù)據(jù)集上,最好的 Auto-DeepLab 模型優(yōu)于多個(gè)當(dāng)前最優(yōu)模型。

論文:Auto-DeepLab: Hierarchical Neural Architecture Search for Semantic Image Segmentation

論文地址:https://arxiv.org/pdf/1901.02985v1.pdf

摘要:近期,在圖像分類問(wèn)題上神經(jīng)架構(gòu)搜索(NAS)確定的神經(jīng)網(wǎng)絡(luò)架構(gòu)能力超越人類設(shè)計(jì)的網(wǎng)絡(luò)。本論文將研究用于語(yǔ)義圖像分割的 NAS,語(yǔ)義圖像分割是將語(yǔ)義標(biāo)簽分配給圖像中每個(gè)像素的重要計(jì)算機(jī)視覺(jué)任務(wù)?,F(xiàn)有的研究通常關(guān)注搜索可重復(fù)的單元結(jié)構(gòu),對(duì)控制空間分辨率變化的外部網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行人工設(shè)計(jì)。這種做法簡(jiǎn)化了搜索空間,但對(duì)于具備大量網(wǎng)絡(luò)級(jí)架構(gòu)變體的密集圖像預(yù)測(cè)而言,該方法帶來(lái)的問(wèn)題很多。因此,該研究提出在搜索單元結(jié)構(gòu)之外還要搜索網(wǎng)絡(luò)級(jí)架構(gòu),從而形成一個(gè)分層架構(gòu)搜索空間。本研究提出一種包含多種流行網(wǎng)絡(luò)設(shè)計(jì)的網(wǎng)絡(luò)級(jí)搜索空間,并提出一個(gè)公式來(lái)進(jìn)行基于梯度的高效架構(gòu)搜索(在 Cityscapes 圖像上使用 1 個(gè) P100 GPU 僅需 3 天)。本研究展示了該方法在較難的 Cityscapes、PASCAL VOC 2012 和 ADE20K 數(shù)據(jù)集上的效果。在不經(jīng)任何 ImageNet 預(yù)訓(xùn)練的情況下,本研究提出的專用于語(yǔ)義圖像分割的架構(gòu)獲得了當(dāng)前最優(yōu)性能。

4 方法

這部分首先介紹了精確匹配上述分層架構(gòu)搜索的離散架構(gòu)的連續(xù)松弛,然后討論了如何通過(guò)優(yōu)化執(zhí)行架構(gòu)搜索,以及如何在搜索終止后解碼離散架構(gòu)。

4.2 優(yōu)化

連續(xù)松弛的作用在于控制不同隱藏狀態(tài)之間連接強(qiáng)度的標(biāo)量現(xiàn)在也是可微計(jì)算圖的一部分。因此可以使用梯度下降對(duì)其進(jìn)行高效優(yōu)化。作者采用了 [49] 中的一階近似,將訓(xùn)練數(shù)據(jù)分割成兩個(gè)單獨(dú)的數(shù)據(jù)集 trainA 和 trainB。優(yōu)化在以下二者之間交替進(jìn)行:

1. 用 ?_w L_trainA(w, α, β) 更新網(wǎng)絡(luò)權(quán)重 w;

2. 用 ?_(α,β) L_trainB(w, α, β) 更新架構(gòu) α, β。

其中損失函數(shù) L 是在語(yǔ)義分割小批量上計(jì)算的交叉熵。

4.3 解碼離散架構(gòu)

單元架構(gòu)

和 [49] 一樣,本研究首先保留每個(gè)構(gòu)造塊的兩個(gè)最強(qiáng)前任者(predecessor),然后使用 argmax 函數(shù)選擇最可能的 operator,從而解碼離散單元架構(gòu)。

網(wǎng)絡(luò)架構(gòu)

公式 7 本質(zhì)上表明圖 1 中每個(gè)藍(lán)色節(jié)點(diǎn)處的「outgoing 概率」的總和為 1。事實(shí)上,β 可被理解為不同「時(shí)間步」(層數(shù))中不同「狀態(tài)」(空間分辨率)之間的「transition 概率」。本研究的目標(biāo)是從頭開(kāi)始找到具備「最大概率」的的路徑。在實(shí)現(xiàn)中,作者可以使用經(jīng)典維特比算法高效解碼該路徑。

圖 1:左圖是 L = 12 時(shí)的網(wǎng)絡(luò)級(jí)搜索空間。灰色節(jié)點(diǎn)表示固定的「stem」層,沿著藍(lán)色節(jié)點(diǎn)形成的路徑表示候選網(wǎng)絡(luò)級(jí)架構(gòu)。右圖展示了搜索過(guò)程中,每個(gè)單元是一個(gè)密集連接的結(jié)構(gòu)。

5 實(shí)驗(yàn)結(jié)果

圖 3:使用本研究提出的分層神經(jīng)架構(gòu)搜索方法找到的最優(yōu)網(wǎng)絡(luò)架構(gòu)和單元架構(gòu)。灰色虛線箭頭表示每個(gè)節(jié)點(diǎn)處具備最大 β 值的連接。atr 指空洞卷積(atrous convolution),sep 指深度可分離卷積(depthwise-separable convolution)。

圖 4:在 10 次隨機(jī)試驗(yàn)中,40 個(gè) epoch 中架構(gòu)搜索優(yōu)化的驗(yàn)證準(zhǔn)確率。

表 2:不同 Auto-DeepLab 模型變體在 Cityscapes 驗(yàn)證集上的結(jié)果。F:控制模型容量的 filter multiplier。所有 Auto-DeepLab 模型都是從頭開(kāi)始訓(xùn)練,且在推斷過(guò)程中使用單尺度輸入。

表 3:Cityscapes 驗(yàn)證集結(jié)果。研究采用不同的訓(xùn)練迭代次數(shù)(50 萬(wàn)、100 萬(wàn)與 150 萬(wàn)次迭代)和 SDP(Scheduled Drop Path)方法進(jìn)行實(shí)驗(yàn)。所有模型都是從頭訓(xùn)練的。

表 4:模型在推斷過(guò)程中使用多尺度輸入時(shí)在 Cityscapes 測(cè)試集上的結(jié)果。ImageNet:在 ImageNet 上預(yù)訓(xùn)練的模型。Coarse:利用粗糙注釋的模型。

表 5:PASCAL VOC 2012 驗(yàn)證集結(jié)果。本研究采用多尺度推理(MS,multi-scale inference)和 COCO 預(yù)訓(xùn)練檢查點(diǎn)(COCO)進(jìn)行實(shí)驗(yàn)。在未經(jīng)任何預(yù)訓(xùn)練的情況下,本研究提出的最佳模型(Auto-DeepLab-L)超越了 DropBlock 20.36%。所有的模型都沒(méi)有使用 ImageNet 圖像做預(yù)訓(xùn)練。

表 6:PASCAL VOC 2012 測(cè)試集結(jié)果。本研究提出的 AutoDeepLab-L 取得了可與眾多在 ImageNet 和 COCO 數(shù)據(jù)集上預(yù)訓(xùn)練的頂級(jí)模型相媲美的結(jié)果。

表 7:ADE20K 驗(yàn)證集結(jié)果。在推斷過(guò)程中使用多尺度輸入。? 表示結(jié)果分別是從他們最新的模型 zoo 網(wǎng)站獲得的。ImageNet:在 ImageNet 上預(yù)訓(xùn)練的模型。Avg:mIOU 和像素準(zhǔn)確率的均值。

圖 5:在 Cityscapes 驗(yàn)證集上的可視化結(jié)果。最后一行展示了本研究提出方法的故障模式,模型將一些較難的語(yǔ)義類別混淆了,如人和騎車的人。

圖 6:在 ADE20K 驗(yàn)證集上的可視化結(jié)果。最后一行展示了本研究提出方法的故障模式,模型無(wú)法分割非常細(xì)粒度的對(duì)象(如椅子腿),且將較難的語(yǔ)義類別混淆了(如地板和地毯)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:李飛飛等人提出Auto-DeepLab:自動(dòng)搜索圖像語(yǔ)義分割架構(gòu)

文章出處:【微信號(hào):aicapital,微信公眾號(hào):全球人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    常見(jiàn)人體姿態(tài)評(píng)估顯示方式的兩種方式

    ,基于Deeplabv3+ 與ResNet34構(gòu)建的一個(gè)人體語(yǔ)義分割模型。 火柴人 主要是基于關(guān)鍵點(diǎn)的人體姿態(tài)評(píng)估顯示方式,基于YOLOv8等人體姿態(tài)評(píng)估的關(guān)鍵點(diǎn)模型均可以實(shí)現(xiàn),演示代碼運(yùn)行效果如下: BodyPix 主要是基于
    的頭像 發(fā)表于 11-11 11:21 ?180次閱讀
    常見(jiàn)人體姿態(tài)評(píng)估顯示方式的兩種方式

    手冊(cè)上新 |迅為RK3568開(kāi)發(fā)板NPU例程測(cè)試

    測(cè)試 6.1 deeplabv3語(yǔ)義分割 6.2 lite_transformer 6.3 LPRNet車牌識(shí)別 6.4 mobilenet圖像分類 6.5 PPOCR-Rec文字識(shí)別 6.6
    發(fā)表于 10-23 14:06

    語(yǔ)義分割25種損失函數(shù)綜述和展望

    語(yǔ)義圖像分割,即將圖像中的每個(gè)像素分類到特定的類別中,是許多視覺(jué)理解系統(tǒng)中的重要組成部分。作為評(píng)估統(tǒng)計(jì)模型性能的主要標(biāo)準(zhǔn),損失函數(shù)對(duì)于塑造基于深度學(xué)習(xí)的
    的頭像 發(fā)表于 10-22 08:04 ?470次閱讀
    <b class='flag-5'>語(yǔ)義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    手冊(cè)上新 |迅為RK3568開(kāi)發(fā)板NPU例程測(cè)試

    測(cè)試 6.1 deeplabv3語(yǔ)義分割 6.2 lite_transformer 6.3 LPRNet車牌識(shí)別 6.4 mobilenet圖像分類 6.5 PPOCR-Rec文字識(shí)別 6.6
    發(fā)表于 08-12 11:03

    圖像語(yǔ)義分割的實(shí)用性是什么

    圖像語(yǔ)義分割是一種重要的計(jì)算機(jī)視覺(jué)任務(wù),它旨在將圖像中的每個(gè)像素分配到相應(yīng)的語(yǔ)義類別中。這項(xiàng)技術(shù)在許多領(lǐng)域都有廣泛的應(yīng)用,如
    的頭像 發(fā)表于 07-17 09:56 ?415次閱讀

    圖像分割語(yǔ)義分割的區(qū)別與聯(lián)系

    圖像分割語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域中兩個(gè)重要的概念,它們?cè)?b class='flag-5'>圖像處理和分析中發(fā)揮著關(guān)鍵作用。 1. 圖像
    的頭像 發(fā)表于 07-17 09:55 ?908次閱讀

    圖像分割與目標(biāo)檢測(cè)的區(qū)別是什么

    圖像分割與目標(biāo)檢測(cè)是計(jì)算機(jī)視覺(jué)領(lǐng)域的兩個(gè)重要任務(wù),它們?cè)谠S多應(yīng)用場(chǎng)景中都發(fā)揮著關(guān)鍵作用。然而,盡管它們?cè)谀承┓矫嬗邢嗨浦?,但它們的目?biāo)、方法和應(yīng)用場(chǎng)景有很大的不同。本文將介紹圖像分割
    的頭像 發(fā)表于 07-17 09:53 ?1275次閱讀

    圖像分割語(yǔ)義分割中的CNN模型綜述

    圖像分割語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο蟆?/div>
    的頭像 發(fā)表于 07-09 11:51 ?828次閱讀

    機(jī)器人視覺(jué)技術(shù)中常見(jiàn)的圖像分割方法

    機(jī)器人視覺(jué)技術(shù)中的圖像分割方法是一個(gè)廣泛且深入的研究領(lǐng)域。圖像分割是將圖像劃分為多個(gè)區(qū)域或?qū)ο蟮倪^(guò)程,這些區(qū)域或?qū)ο缶哂心撤N共同的特征,如顏
    的頭像 發(fā)表于 07-09 09:31 ?658次閱讀

    機(jī)器人視覺(jué)技術(shù)中圖像分割方法有哪些

    機(jī)器人視覺(jué)技術(shù)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到圖像處理、模式識(shí)別、機(jī)器學(xué)習(xí)等多個(gè)學(xué)科。圖像分割是機(jī)器人視覺(jué)技術(shù)中的一個(gè)重要環(huán)節(jié),它的目標(biāo)是從一幅圖像中將目標(biāo)物體與背景分離出來(lái),以
    的頭像 發(fā)表于 07-04 11:34 ?933次閱讀

    飛飛最新解碼空間智能,DePIN破局最后一米,AIoT即將綻放異彩

    在人工智能的領(lǐng)域里,有一個(gè)概念正悄然崛起,它被稱為“空間智能”。最近,一位人工智能界的傳奇人物將它推到了聚光燈下。這個(gè)人就是飛飛,她曾發(fā)起了里程碑式的ImageNet項(xiàng)目,催生了深度學(xué)習(xí)的革命
    的頭像 發(fā)表于 05-26 08:04 ?387次閱讀
    <b class='flag-5'>李</b><b class='flag-5'>飛飛</b>最新解碼空間智能,DePIN破局最后一米,AIoT即將綻放異彩

    新火種AI|AI教母飛飛初創(chuàng)AI公司,開(kāi)啟最前沿AI算法研究

    AI教母飛飛首次創(chuàng)業(yè),瞄準(zhǔn)“空間智能”。
    的頭像 發(fā)表于 05-06 16:24 ?311次閱讀
    新火種AI|AI教母<b class='flag-5'>李</b><b class='flag-5'>飛飛</b>初創(chuàng)AI公司,開(kāi)啟最前沿AI算法研究

    改進(jìn)棉花根系圖像分割方法

    棉花是錦葵科棉屬植物,棉花生產(chǎn)的纖維是我國(guó)各類衣服、家具布和工業(yè)用布的材料,目前我國(guó)的棉花產(chǎn)量也非常高,主要以新疆地區(qū)為主。根系是植物組成的重要部分,其生長(zhǎng)發(fā)育至關(guān)重要。 根系圖像分割是根系表型分析
    的頭像 發(fā)表于 01-18 16:18 ?295次閱讀

    機(jī)器視覺(jué)的圖像目標(biāo)識(shí)別方法操作要點(diǎn)

    通過(guò)加強(qiáng)圖像分割,能夠提高機(jī)器視覺(jué)的圖像目標(biāo)識(shí)別的自動(dòng)化水平,使得圖像目標(biāo)識(shí)別效果更加顯著。圖像
    發(fā)表于 01-15 12:17 ?433次閱讀

    【愛(ài)芯派 Pro 開(kāi)發(fā)板試用體驗(yàn)】+ 圖像分割和填充的Demo測(cè)試

    測(cè)試的程序是官方提供的交互式圖像分割和修復(fù)(Segment and Inpaint Anything)。所謂交互式圖像分割和修復(fù),就是軟件提供了一個(gè)基于QT6的GUI交互界面,實(shí)現(xiàn)了交
    發(fā)表于 12-26 11:22
    主站蜘蛛池模板: 亚洲一区在线观看视频| 国产精彩视频在线| 男人插曲女人的叫声| 99er热精品视频国产免费| 饥渴难耐的浪荡艳妇在线观看| 香蕉免费高清完整| 国产午夜a理论毛片在线影院| 性吧 校园春色| 吉吉影音先锋av资源| 野花高清影视免费观看| 久久天天躁狠狠躁夜夜呲| 中国少妇内射XXXHD免费| 乱码国产丰满人妻WWW| 99久久精品国产一区二区三区| 男人的天堂黄色| 福利一区国产| 亚洲免费一区二区| 美女被打开了屁股进去的视频| 69式国产真人免费视频| 日本老师xxxxx18| 国产精品-区区久久久狼| 亚洲欧美日韩综合影院| 久久视频精品38线视频在线观看| 4k岛国精品午夜高清在线观看| 欧美特级另类xxx| 国产精品1区2区| 亚洲综合AV在线在线播放| 嫩草影院久久精品| 国产成人综合高清在线观看| 亚洲理论片在线中文字幕| 美女被日出水| 趁老师睡着吃她的奶水| JIZZ19学生第一次| 肉动漫无修3D在线观看| 果冻传媒在线完整免费播放| 2020最新无码国产在线视频| 日本高清免费一本在线观看 | 持田香织abc| 亚洲综合中文| 伸进同桌奶罩里摸她胸作文| 精品久久久爽爽久久久AV|