色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用手持?jǐn)z像機(jī)圖像通過卷積神經(jīng)網(wǎng)絡(luò)實時進(jìn)行水稻檢測

新機(jī)器視覺 ? 來源:計算機(jī)視覺研究院 ? 2024-01-09 10:10 ? 次閱讀

PART/1

摘要

在本研究中,研究者提出了一種有效的深度卷積神經(jīng)網(wǎng)絡(luò)(DCNN)結(jié)構(gòu),利用手持照相機(jī)拍攝的照片來檢測水稻的生長階段(DVS)。用不同的策略對DCNN模型進(jìn)行了訓(xùn)練,并與傳統(tǒng)的時間序列Green chromatic coordinate (time-series Gcc)方法和手工提取的特征組合支持向量機(jī)(MF-SVM)方法進(jìn)行了比較。此外,還研究了不同角度的圖像、模型訓(xùn)練策略和對DCNN模型預(yù)測的解釋。利用所提出的兩步微調(diào)策略訓(xùn)練的DCNN模型得到了最優(yōu)結(jié)果,整體精度為0.913,低平均絕對誤差為0.090。

b74a9660-ae81-11ee-8b88-92fbcf53809c.png

結(jié)果表明,以大角度拍攝的圖像包含更有價值的信息,使用多角度拍攝的圖像可以進(jìn)一步提高模型的性能。兩步微調(diào)策略極大地提高了模型對視角隨機(jī)性的魯棒性。解釋結(jié)果表明,從圖像中提取生物氣候?qū)W相關(guān)特征是可能的。本研究提供了一種生物氣候?qū)W檢測方法來實時利用手持照相機(jī)圖像,并對在現(xiàn)實場景中使用深度學(xué)習(xí)有了一些重要的見解。

PART/2

相關(guān)背景

本研究的假設(shè)是,作物表型的特征可以通過分析圖像被機(jī)器學(xué)習(xí)捕捉到,而傳統(tǒng)上可以通過觀察被農(nóng)業(yè)專家識別。然而,對作物生物氣候?qū)W檢測的深度學(xué)習(xí)研究仍然非常有限。Yalcin(Plant phenology recognition using deep learning: Deep-pheno. In 2017 The sixth international conference on agro-geoinformatics (pp. 1–5). https://doi.org/10.1109/Agro-Geoin formatics.2017.8046996)應(yīng)用DCNN,使用固定角圖像對生長階段進(jìn)行分類。Bai等人(Rice heading stage automatic observation by multi-classifier cascade based rice spike detection method. Agricultural and Forest Meteorology, 259, 21360–270. https://doi.org/10.1016/j.agrformet.2018.05.001)使用支持向量機(jī)和DCNN來區(qū)分水稻穗的圖像斑塊。檢測到的穗狀斑塊的數(shù)量決定了水稻的走向階段。

以上兩項研究集中在固定的角度和位置的圖像上,而小農(nóng)戶可以以隨機(jī)的角度和位置拍攝圖像。為了方便處理這些隨機(jī)圖像,有必要開發(fā)一種通用的方法。從多個角度拍攝的圖像中提取最大的生物氣候?qū)W信息將是很吸引人的。還需要一種通過降低圖像視角不確定性的影響的訓(xùn)練策略來提高深度學(xué)習(xí)方法的性能。

PART/3

研究地域

b769cd50-ae81-11ee-8b88-92fbcf53809c.png

實驗地域(23° 5′ 52″–23° 7′ 23″ N, 108° 57′ 7″–108° 58′ 34″ E)位于中國廣西賓陽縣。該地區(qū)的160公頃土地被劃分為800多個地塊,由當(dāng)?shù)剞r(nóng)民管理。該地區(qū)的年平均降水量約為1600毫米,平均氣溫為21°C。隨機(jī)選取70塊地塊,利用管理的12塊地塊進(jìn)行分析。

PART/4

研究框架

Data collection and processing

為了利用在不同視角度拍攝的圖像進(jìn)行現(xiàn)象學(xué)識別,選擇了攝影方向和重力方向之間的四個垂直方向:0°(A)、20°(B)、40°(C)和60°(D),如下圖a。

b7777ec8-ae81-11ee-8b88-92fbcf53809c.png

在研究區(qū)域,大部分地塊通過鉆機(jī)移植。當(dāng)在播種方向拍攝圖像時,兩排水稻之間的土壤會被很好地捕捉到,而在其他方向,圖像捕捉到的土壤會較少。攝影方向和播種方向之間的三個水平方向(分別為0°(a)、45°(b)和90°(c),以避免鉆孔的影響(如圖b))。每次觀察都拍攝了12張照片,并在距地面1.5米處大致手工控制視角。當(dāng)?shù)剞r(nóng)民對70塊地的圖像采集被部署了7次。構(gòu)建了一個具有622個觀測結(jié)果的數(shù)據(jù)集,其中包含7464個圖像,并使用其中7320個進(jìn)行分析。其他的圖像的質(zhì)量很差,無法使用。根據(jù)DVS將610項觀察結(jié)果分為10組,每組進(jìn)一步分為訓(xùn)練(60%)、驗證(20%)和測試(20%)組。

Data augmentation

b78c1afe-ae81-11ee-8b88-92fbcf53809c.png

數(shù)據(jù)增廣的策略

The cropping scheme of three datasets

b79cbef4-ae81-11ee-8b88-92fbcf53809c.png

b7a7941e-ae81-11ee-8b88-92fbcf53809c.png

上圖顯示從原始圖像裁剪的圖像塊。裁剪后,數(shù)據(jù)集的結(jié)果分布比原始分布更均勻。

b7ab28a4-ae81-11ee-8b88-92fbcf53809c.png

Deep convolutional neural network approach

b7aff8e8-ae81-11ee-8b88-92fbcf53809c.png

PART/5

實驗結(jié)果

b7c0eeaa-ae81-11ee-8b88-92fbcf53809c.png

上表是time-series-Gcc方法的ACC/MAE。

b7c981a0-ae81-11ee-8b88-92fbcf53809c.png

(a) Confusion matrix yielded by the Bb set; (b) confusion matrix yielded by the Dc set.

b7d03c8e-ae81-11ee-8b88-92fbcf53809c.png

MF-SVM方法的ACC/MAE。

b7e1f028-ae81-11ee-8b88-92fbcf53809c.png

a–d are resultsyielded by18 features from one channel, 54 features from 3 channels, 108 features from 6 channels, and 270features from 15 channels, respectively.

b7e5f916-ae81-11ee-8b88-92fbcf53809c.png

上圖中的A, B, C, D分別表示0°, 20°, 40°和60°。

b7eb3f7a-ae81-11ee-8b88-92fbcf53809c.png

不同拍攝角度的照片比較

最終結(jié)果:

b8073ab8-ae81-11ee-8b88-92fbcf53809c.png







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 攝像機(jī)
    +關(guān)注

    關(guān)注

    3

    文章

    1596

    瀏覽量

    60016
  • 卷積神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    4

    文章

    367

    瀏覽量

    11863
  • dcnn
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    3002

原文標(biāo)題:干貨 | 利用手持?jǐn)z像機(jī)圖像通過卷積神經(jīng)網(wǎng)絡(luò)實時進(jìn)行水稻檢測

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    【PYNQ-Z2申請】基于PYNQ的卷積神經(jīng)網(wǎng)絡(luò)加速

    ,得到訓(xùn)練參數(shù)2、利用開發(fā)板arm與FPGA聯(lián)合的特性,在arm端實現(xiàn)圖像預(yù)處理已經(jīng)卷積神經(jīng)網(wǎng)絡(luò)的池化、激活函數(shù)和全連接,在FPGA端實現(xiàn)卷積
    發(fā)表于 12-19 11:37

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    卷積神經(jīng)網(wǎng)絡(luò)一維卷積的處理過程

    以前的神經(jīng)網(wǎng)絡(luò)幾乎都是部署在云端(服務(wù)器上),設(shè)備端采集到數(shù)據(jù)通過網(wǎng)絡(luò)發(fā)送給服務(wù)器做inference(推理),結(jié)果再通過網(wǎng)絡(luò)返回給設(shè)備端。
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)已經(jīng)廣泛應(yīng)用于圖像分類、目標(biāo)檢測、語義分割以及自然語言處理等領(lǐng)域。首先分析了典型卷積神經(jīng)網(wǎng)絡(luò)模型為提高其性能增加
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)為什么適合圖像處理?

    卷積神經(jīng)網(wǎng)絡(luò)為什么適合圖像處理?
    發(fā)表于 09-08 10:23

    卷積神經(jīng)網(wǎng)絡(luò)簡介:什么是機(jī)器學(xué)習(xí)?

    復(fù)雜數(shù)據(jù)中提取特征的強(qiáng)大工具。例如,這包括音頻信號或圖像中的復(fù)雜模式識別。本文討論了 CNN 相對于經(jīng)典線性規(guī)劃的優(yōu)勢。后續(xù)文章“訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò):什么是機(jī)器學(xué)習(xí)?——第2部分”將討論如何訓(xùn)練CNN
    發(fā)表于 02-23 20:11

    基于卷積神經(jīng)網(wǎng)絡(luò)圖像標(biāo)注模型

    ,構(gòu)建一個多標(biāo)簽學(xué)習(xí)的卷積神經(jīng)網(wǎng)絡(luò)( CNN-MLL)模型,然后利用圖像標(biāo)注詞間的相關(guān)性對網(wǎng)絡(luò)模型輸出結(jié)果
    發(fā)表于 12-07 14:30 ?4次下載
    基于<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>圖像</b>標(biāo)注模型

    如何使用混合卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò)進(jìn)行入侵檢測模型的設(shè)計

    網(wǎng)絡(luò)流量的各統(tǒng)計值,進(jìn)行特征編碼、歸一化等預(yù)處理工作;然后,通過深度卷積神經(jīng)網(wǎng)絡(luò)中可變卷積核提
    發(fā)表于 12-12 17:27 ?19次下載
    如何使用混合<b class='flag-5'>卷積</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>和循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>進(jìn)行</b>入侵<b class='flag-5'>檢測</b>模型的設(shè)計

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么

    神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識別、自然語言處理、視頻處理等方面。本文將對卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
    的頭像 發(fā)表于 08-21 16:41 ?4947次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)如何識別圖像

    多層卷積層、池化層和全連接層。CNN模型通過訓(xùn)練識別并學(xué)習(xí)高度復(fù)雜的圖像模式,對于識別物體和進(jìn)行圖像分類等任務(wù)有著非常優(yōu)越的表現(xiàn)。本文將會詳
    的頭像 發(fā)表于 08-21 16:49 ?1925次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展 卷積神經(jīng)網(wǎng)絡(luò)三大特點

    中最重要的神經(jīng)網(wǎng)絡(luò)之一。它是一種由多個卷積層和池化層(也可稱為下采樣層)組成的神經(jīng)網(wǎng)絡(luò)。CNN 的基本思想是以圖像為輸入,通過
    的頭像 發(fā)表于 08-21 16:49 ?2418次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解

    分類、目標(biāo)檢測、人臉識別等。卷積神經(jīng)網(wǎng)絡(luò)的核心是卷積層和池化層,它們構(gòu)成了網(wǎng)絡(luò)的主干,實現(xiàn)了對圖像
    的頭像 發(fā)表于 08-21 16:49 ?7586次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    的深度學(xué)習(xí)算法。CNN模型最早被提出是為了處理圖像,其模型結(jié)構(gòu)中包含卷積層、池化層和全連接層等關(guān)鍵技術(shù),經(jīng)過多個卷積層和池化層的處理,CNN可以提取出圖像中的特征信息,從而對
    的頭像 發(fā)表于 08-21 16:49 ?1867次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)算法 cnn卷積神經(jīng)網(wǎng)絡(luò)模型

    cnn卷積神經(jīng)網(wǎng)絡(luò)算法 cnn卷積神經(jīng)網(wǎng)絡(luò)模型 卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種特殊的
    的頭像 發(fā)表于 08-21 17:15 ?2076次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    、訓(xùn)練過程以及應(yīng)用場景。 1. 卷積神經(jīng)網(wǎng)絡(luò)的基本概念 1.1 卷積神經(jīng)網(wǎng)絡(luò)的定義 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 09:15 ?397次閱讀
    主站蜘蛛池模板: YELLOW日本动漫免费动漫| 亚洲熟女丰满多毛XXXXX| 簧片在线观看| 91精品在线国产| 涩涩免费网站| 精品国产乱码久久久久久乱码| 0855福利| 色偷偷777| 久cao在线香蕉| XXOO麻豆国产在线九九爱| 性欧美13处14处破| 麻豆啊传媒app黄版破解免费| 苍老师刺激的120分钟| 亚洲国产在线精品第二剧情不卡| 麻豆文化传媒一区二区| 公开超碰在线视频| 再插深点嗯好大好爽| 日韩精品 电影一区 亚洲高清| 国产一区二区三区影院| 67194con免费福和视频| 色色色久久久免费视频| 久久黄色网址| 囯产免费精品一品二区三区视频| 亚洲一区二区三不卡高清| 欧美牲交A欧美牲交VDO| 国产免费人成在线看视频| 2021扫黑风暴在线观看免费完整版| 少妇被躁爽到高潮无码久久| 九九热在线视频| 动漫美女喷水| 真人美女精美小穴| 手机看片国产日韩欧美| 久久精视频| 国产成人亚洲精品午夜国产馆| 中文字幕乱码在线人视频| 十次啦中文网| 免费国产精品视频| 国语精彩对白2021| 厕所xxxxx| 11 13加污女qq看他下面| 午夜国产精品免费观看|