色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
电子发烧友
开通电子发烧友VIP会员 尊享10大特权
海量资料免费下载
精品直播免费看
优质内容免费畅学
课程9折专享价
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于CNN和DenseBlock的導(dǎo)光板標(biāo)記線缺陷檢測(cè)

新機(jī)器視覺(jué) ? 來(lái)源:新機(jī)器視覺(jué) ? 作者:新機(jī)器視覺(jué) ? 2020-11-01 11:48 ? 次閱讀

目前越來(lái)越多的中外學(xué)者致力于機(jī)器視覺(jué)的研究, 但卻少有導(dǎo)光板檢測(cè)的成熟方法以及學(xué)術(shù)論文可被參考, 通過(guò)借鑒液晶屏缺陷檢測(cè)的研究方法進(jìn)行研究. 在數(shù)字圖像算法檢測(cè)方法中, 文獻(xiàn)[1]中將圖像作為像素矩陣, 利用奇異值分解(SVD)檢測(cè)缺陷, 首先去除圖像背景, 然后利用剩余奇異值重建圖像并顯示缺陷區(qū)域. 但是這種方法中沒(méi)有提供消除各種缺陷類型時(shí)必須的奇異值數(shù), 以獲得良好的實(shí)驗(yàn)結(jié)果. 文獻(xiàn)[2]中, 利用奇異值對(duì)圖像進(jìn)行分類, 并將缺陷圖片分為粗缺陷和細(xì)缺陷兩類, 采用二維離散小波系數(shù)與區(qū)域增長(zhǎng)相結(jié)合的方法提取缺陷區(qū)域, 該算法在時(shí)間復(fù)雜度上表現(xiàn)較為優(yōu)異, 但是在應(yīng)對(duì)導(dǎo)光板復(fù)雜特征時(shí)表現(xiàn)欠佳. 文獻(xiàn)[3]中擴(kuò)展了原霍夫變換的點(diǎn)到線的距離差, 在非平穩(wěn)灰度梯度的缺陷檢測(cè)中得到了有效的應(yīng)用. 然而不同的距離差值與相同的控制參數(shù)組合將會(huì)導(dǎo)致得到不同的結(jié)果, 文中并未提到此自動(dòng)檢測(cè)方法是否需要人工干預(yù)來(lái)設(shè)置參數(shù). 在神經(jīng)網(wǎng)絡(luò)的檢測(cè)算法中, 文獻(xiàn)[4]中作者為Mura缺陷的定量評(píng)估設(shè)計(jì)了一個(gè)模糊神經(jīng)網(wǎng)絡(luò), 然而對(duì)于低對(duì)比度的Mura缺陷, 如何準(zhǔn)確地提取到缺陷特征是一個(gè)挑戰(zhàn). 文獻(xiàn)[5]中作者為預(yù)測(cè)Gap Mura缺陷使用4種神經(jīng)網(wǎng)絡(luò), 分別是BP神經(jīng)網(wǎng)絡(luò)、徑向基函數(shù)、學(xué)習(xí)向量量化1和學(xué)習(xí)向量量化2進(jìn)行訓(xùn)練, 但是BP神經(jīng)網(wǎng)絡(luò)本身具有收斂速度慢、權(quán)值收斂局部極小化等問(wèn)題, 并不能提供穩(wěn)定的解決方案. 文獻(xiàn)[6]中作者針對(duì)Mura缺陷采用監(jiān)督學(xué)習(xí)網(wǎng)絡(luò), 將觀察到的Mura缺陷標(biāo)記為特征, 并被輸入到一個(gè)卷積神經(jīng)網(wǎng)絡(luò)提取所選擇的特征. 文中所使用的網(wǎng)絡(luò)需要提前表及特征, 過(guò)程繁雜, 工作量大, 且文中使用網(wǎng)絡(luò)結(jié)構(gòu)簡(jiǎn)答單一, 捕獲特征較少, 無(wú)法應(yīng)對(duì)復(fù)雜紋理的圖像分類任務(wù). 文獻(xiàn)[7]中作者使用神經(jīng)網(wǎng)絡(luò)光學(xué)模型和遺傳算法等方法優(yōu)化設(shè)計(jì)棱鏡型液晶導(dǎo)光板, 以求在現(xiàn)有條件下獲得優(yōu)異的亮度均勻性. 但是使用的網(wǎng)絡(luò)BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練方面問(wèn)題多多, 無(wú)法保證使用不同的數(shù)據(jù)集時(shí)的檢測(cè)效果. 文獻(xiàn)[8]中作者融合STN和DenseNet卷積神經(jīng)網(wǎng)絡(luò)組成新型網(wǎng)絡(luò)結(jié)構(gòu)ST-DenseNet用于樹(shù)種葉片數(shù)據(jù)集分類. 文獻(xiàn)[9]中作者通過(guò)改進(jìn)AlexNet完成遮擋獼猴桃目標(biāo)識(shí)別任務(wù). 文獻(xiàn)[10]中作者使用VGG16分類卷積神經(jīng)網(wǎng)絡(luò)對(duì)血液細(xì)胞進(jìn)行診斷分類研究. 在理論研究方面, 人們?cè)谔剿鞣诸惥矸e神經(jīng)網(wǎng)絡(luò)時(shí)注意到了注意力這一概念。

上述分類卷積神經(jīng)網(wǎng)絡(luò)的分類效果雖然表現(xiàn)不錯(cuò), 但是由于網(wǎng)絡(luò)參數(shù)較多, 運(yùn)行時(shí)卷積神經(jīng)網(wǎng)絡(luò)的時(shí)間復(fù)雜度較大. 因工業(yè)產(chǎn)品檢測(cè)需要考慮時(shí)間成本和資金成本, 無(wú)法直接使用上述分類網(wǎng)絡(luò)進(jìn)行分類檢測(cè). 由于目前用于工業(yè)檢測(cè)的卷積神經(jīng)網(wǎng)絡(luò)案例較少, 查閱相關(guān)文獻(xiàn)后, 選擇對(duì)現(xiàn)有卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行改進(jìn), 完成導(dǎo)光板分類檢測(cè)算法. 針對(duì)工業(yè)檢測(cè)需求, 更改DenseNet網(wǎng)絡(luò)中的卷積結(jié)構(gòu), 結(jié)合Bilinear-CNN算法提高卷積神經(jīng)網(wǎng)絡(luò)局部特征注意力. 最終在900張的測(cè)試圖片組成的測(cè)試數(shù)據(jù)集上達(dá)到了95.53%的準(zhǔn)確率, 平均單張圖像檢測(cè)時(shí)間為40.1 ms.

導(dǎo)光板是一種亞克力材質(zhì)的塑料板材, 經(jīng)過(guò)花紋燙印后, 被廣泛用于顯示器背光模組核心組件. 對(duì)導(dǎo)光板標(biāo)記線的檢測(cè), 則是驗(yàn)證當(dāng)前燙印工藝是否合格的一個(gè)重要標(biāo)準(zhǔn). 使用數(shù)字圖像算法檢測(cè)導(dǎo)光板標(biāo)記線雖然可以有效地對(duì)圖片進(jìn)行檢測(cè), 但是面對(duì)特征更加復(fù)雜的大面積氣泡、嚴(yán)重污染和無(wú)標(biāo)記線等情況無(wú)法得到滿意的結(jié)果. 使用深度學(xué)習(xí)方法進(jìn)行工業(yè)檢測(cè), 是學(xué)術(shù)界和工業(yè)界共同探索的課題. 使用深度學(xué)習(xí)的方法對(duì)小數(shù)據(jù)集、低對(duì)比、高紋理、高相似的導(dǎo)光板標(biāo)圖片進(jìn)行缺陷檢測(cè), 導(dǎo)光板缺陷板材示意圖如圖1所示.

1 相關(guān)理論方法

卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)是一種特殊的人工神經(jīng)網(wǎng)絡(luò), 其主要的特點(diǎn)是卷積運(yùn)算操作. 卷積神經(jīng)網(wǎng)絡(luò)在進(jìn)行分類或者回歸的時(shí)候, 大致都分為兩個(gè)部分, 他們分別是前饋運(yùn)算和反饋運(yùn)算. 前饋運(yùn)算是產(chǎn)生運(yùn)算數(shù)據(jù)的過(guò)程, 其主要通過(guò)卷積操作、匯合操作和非線性激活函數(shù)映射等一系列操作共同完成. 反向傳播主要是計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差或損失, 憑借反向傳播算法將損失逐層向前反饋, 更新每一層的權(quán)重和偏置, 通過(guò)周而復(fù)始的進(jìn)行前饋運(yùn)算和反饋運(yùn)算, 最終得到期望的模型.

2 基于雙線性CNN和DenseBlock的分類檢測(cè)框架

本文算法分上下兩步, 第1步, 基本權(quán)重訓(xùn)練: 通過(guò)修改DenseNet網(wǎng)絡(luò), 改進(jìn)DenseBlock中特征計(jì)算單元的結(jié)構(gòu), 減少卷積神經(jīng)網(wǎng)絡(luò)卷積層數(shù)量, 避免過(guò)擬合, 以及減少卷積神經(jīng)網(wǎng)絡(luò)參數(shù)數(shù)量. 第2步, 權(quán)重模型優(yōu)化: 使用Bilinear-CNN分類算法組成混合深度模型進(jìn)行遷移學(xué)習(xí), 將使用第1步訓(xùn)練得到的權(quán)重遷移到第2步的Bilinear-CNN分類網(wǎng)絡(luò)重新訓(xùn)練, 通過(guò)捕捉特征通道之間的成對(duì)相關(guān)性, 提高分類準(zhǔn)確率, 各步網(wǎng)絡(luò)結(jié)構(gòu)如圖4所示. 通過(guò)對(duì)實(shí)驗(yàn)的卷積神經(jīng)網(wǎng)絡(luò)算法的權(quán)重進(jìn)行分析發(fā)現(xiàn), 本文所設(shè)計(jì)的卷積神經(jīng)網(wǎng)絡(luò)算法僅需要極少的參數(shù)參與運(yùn)算.

2.1 改進(jìn)的神經(jīng)網(wǎng)絡(luò)模型介紹

與傳統(tǒng)的為提高識(shí)別精度, 通過(guò)增加卷積層數(shù)量或使用金字塔特征融合的方法不同. 卷積神經(jīng)網(wǎng)絡(luò)在工業(yè)檢測(cè)應(yīng)用的場(chǎng)景, 主要運(yùn)行在工控機(jī)或者普通PC機(jī)上. 因此設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)時(shí), 首先考慮減少卷積神經(jīng)網(wǎng)絡(luò)卷積層, 然后再考慮提高卷積神經(jīng)網(wǎng)絡(luò)分類精度.

2.1.1 減少卷積神經(jīng)網(wǎng)絡(luò)參數(shù)

減少DenseBlock中的卷積層數(shù), 通過(guò)減少卷積操作次數(shù)和卷積數(shù)量, 提高卷積神經(jīng)網(wǎng)絡(luò)運(yùn)行速度. 減少卷積層數(shù)量可以在減少運(yùn)行時(shí)間的同時(shí)減少網(wǎng)絡(luò)參數(shù)數(shù)量. 但是隨之而來(lái)的副作用, 則是無(wú)法獲得足夠的特征, 使得特征激活映射區(qū)域無(wú)法正確映射到目標(biāo)物體上.

減少卷積操作中的通道數(shù)量, 隨著卷積操作中通道數(shù)量的增加, 網(wǎng)絡(luò)參數(shù)數(shù)量也隨之增加, 使得網(wǎng)絡(luò)在運(yùn)行時(shí)需要申請(qǐng)更多的顯存和內(nèi)存空間. 減少卷積操作中的通道數(shù)量, 可以有效的降低卷積神經(jīng)網(wǎng)絡(luò)的空間復(fù)雜度.

在特征計(jì)算單元中加入DropOut算法, 通過(guò)設(shè)置忽略特征檢測(cè)器的概率, 使某些神經(jīng)元的激活值以一定的概率停止工作. DropOut的加入可以使當(dāng)前模型泛化性更強(qiáng), 減少對(duì)某些局部特征的依賴, 從而避免過(guò)擬合.

在每個(gè)DenseBlock后面加入多層感知器(MLP)[20], 與Caffe中MLP的實(shí)現(xiàn)方法不同, 實(shí)驗(yàn)算法中的MLP算子中沒(méi)有使用3×3大小的卷積核進(jìn)行卷積, 僅使用兩層1×1大小的卷積核進(jìn)行卷積, 這樣做有助于在加深網(wǎng)絡(luò)卷積深度與增強(qiáng)網(wǎng)絡(luò)容量和復(fù)雜度的同時(shí), 減少網(wǎng)絡(luò)參數(shù)數(shù)量[21].

2.1.2 加速損失函數(shù)收斂

在實(shí)驗(yàn)中, 發(fā)現(xiàn)使用原DenseNet網(wǎng)絡(luò)結(jié)構(gòu)中的GAP結(jié)構(gòu), 無(wú)法有效降低損失函數(shù)的損失值. 在使用三層全連接層代替Global Average Pooling (GAP)之后, 損失函數(shù)的損失值快速下降. 對(duì)比前后結(jié)果, 三層全連接層作為一個(gè)小型網(wǎng)絡(luò), 相比于GAP算法其可以獲取更多的特征. 使用GAP算法對(duì)高紋理、低對(duì)比的灰度圖分類時(shí), 會(huì)造成特征圖上的特征丟失.

GAP對(duì)所接收到的每一個(gè)特征圖都進(jìn)行了極端降維, 它將尺寸為h×w×d的張量縮小為1×1×d大小的張量. GAP激活區(qū)域與分類結(jié)果之間的關(guān)系證明如下所示[22]:

使用三層全連接層可以有效地降低損失函數(shù)損失值, 加速了梯度下降, 促使網(wǎng)絡(luò)可以更加快速的擬合權(quán)重參數(shù), 找到當(dāng)前網(wǎng)絡(luò)的局部最優(yōu)解. 但是隨著三層全連接層的使用, 導(dǎo)致卷積神經(jīng)網(wǎng)絡(luò)的參數(shù)數(shù)量增加, 所以在下一步的遷移學(xué)習(xí)過(guò)程中通過(guò)修改全連接層結(jié)構(gòu)的方法, 降低網(wǎng)絡(luò)參數(shù)數(shù)量.

2.2 雙線性CNN算法

雙線性CNN(如圖5)由兩組CNN特征提取器組成, 它使用兩個(gè)卷積神經(jīng)網(wǎng)絡(luò)的輸出在圖像的每個(gè)位置進(jìn)行外積相乘, 并在原圖各個(gè)位置進(jìn)行池化以獲得最終的圖像特征描述符. 通過(guò)外積操作捕捉特征通道之間的成對(duì)相關(guān)性, 對(duì)局部特征之間的交互進(jìn)行建模. 由于雙線性CNN的兩個(gè)CNN的輸出是線性的, 所以被叫做雙線性CNN[23]. 在雙線性CNN算法中, 有并行子網(wǎng)絡(luò)A、B, 網(wǎng)絡(luò)A的作用是對(duì)圖像中對(duì)象的特征部位進(jìn)行定位, 而網(wǎng)絡(luò)B則是用來(lái)對(duì)網(wǎng)絡(luò)A檢測(cè)到的特征區(qū)域進(jìn)行特征提取, 由這兩個(gè)網(wǎng)絡(luò)共同完成了圖像分類中最重要的兩個(gè)任務(wù): 區(qū)域檢測(cè)和特征提取[24].

雙線性CNN的全局圖像描述符, 表示如下:

目前雙線性CNN有兩種實(shí)現(xiàn)方法, 第1種: 使用不同的兩組卷積神經(jīng)網(wǎng)絡(luò)作為特征提取器, 第2種: 使用同一組網(wǎng)絡(luò)獲取的最終特征描述符進(jìn)行運(yùn)算. 通過(guò)對(duì)比研究, 因考慮到算法最終的應(yīng)用環(huán)境, 最終選擇第2種實(shí)現(xiàn)方式進(jìn)行實(shí)驗(yàn).

2.3 損失函數(shù)

3 實(shí)驗(yàn)分析

訓(xùn)練數(shù)據(jù)集共有4059張圖片, 驗(yàn)證和測(cè)試數(shù)據(jù)集各有896張圖片. 為應(yīng)對(duì)不同工廠的不同產(chǎn)品, 旨在尋找簡(jiǎn)單易用的端到端的神經(jīng)網(wǎng)絡(luò), 本文分類卷積神經(jīng)網(wǎng)絡(luò)算法在訓(xùn)練時(shí)并未對(duì)圖片預(yù)處理.

實(shí)驗(yàn)電腦硬件配置如下:

(1) CPU: Intel Core(TM) i5-4590; 四核四線程; 主頻: 3.3 GHz.

(2)實(shí)驗(yàn)訓(xùn)練用GPU: NVIDIA Titan V; 顯存: 12 GB; 內(nèi)存: 250 GB.

(3)實(shí)驗(yàn)測(cè)試用GPU: NVIDIA GTX 1060; 顯存: 6 GB.

(4)本機(jī)內(nèi)存: DDR3: 1600 MHz; 內(nèi)存: 16 GB.

實(shí)驗(yàn)軟件環(huán)境如下:

(1)操作系統(tǒng): Windows 10, ubuntu 16.04.

(2)編程語(yǔ)言: Python.

(3)第三方庫(kù): Pillow, numpy, matplotlib, tensor-flow, keras, scikit-image.

3.1 DenseNet實(shí)驗(yàn)參數(shù)與結(jié)果

在第1步的訓(xùn)練中, 將訓(xùn)練集輸入到網(wǎng)絡(luò)中進(jìn)行模型訓(xùn)練, 訓(xùn)練過(guò)程所涉及的參數(shù)有batch_size大小、學(xué)習(xí)率、激活函數(shù)、迭代次數(shù)和優(yōu)化函數(shù)(訓(xùn)練參數(shù)設(shè)置如表1所示).

使用實(shí)驗(yàn)網(wǎng)絡(luò)模型對(duì)同一個(gè)數(shù)據(jù)集、在相同的訓(xùn)練參數(shù)下, 進(jìn)行多次訓(xùn)練后發(fā)現(xiàn), 每次訓(xùn)練后得到的準(zhǔn)確率在92%左右震蕩. 從側(cè)面驗(yàn)證, 通過(guò)改進(jìn)所得到的卷積神經(jīng)網(wǎng)絡(luò)具有較好的魯棒性(loss變化圖如圖6所示, 本文使用留一法數(shù)據(jù)進(jìn)行展示, 用以凸顯卷積神經(jīng)網(wǎng)絡(luò)擬合效果).

3.2 雙線性CNN實(shí)驗(yàn)結(jié)果與分析

使用遷移學(xué)習(xí)技術(shù)對(duì)雙線性CNN網(wǎng)絡(luò)進(jìn)行訓(xùn)練, 通過(guò)修改第一步中的DenseNet網(wǎng)絡(luò)結(jié)構(gòu), 使用雙線性CNN算法替換三層全連接層, 在減少網(wǎng)絡(luò)參數(shù)的同時(shí)提高了分類準(zhǔn)確率. 在第二步訓(xùn)練雙線性CNN時(shí)依然采用交叉熵?fù)p失函數(shù)作為圖像分類訓(xùn)練的損失函數(shù)(如圖7).

將訓(xùn)練集輸入到網(wǎng)絡(luò)中進(jìn)行模型訓(xùn)練, 訓(xùn)練過(guò)程所涉及的參數(shù)有batch_size、學(xué)習(xí)率、激活函數(shù)、迭代次數(shù)和優(yōu)化函數(shù)等(如表2).

實(shí)驗(yàn)所用訓(xùn)練數(shù)據(jù)集(如圖8)由3類缺陷圖片組成, 分別是無(wú)線、有線和氣泡, 每類有1353張圖片, 共計(jì)4059張訓(xùn)練圖片, 圖片大小為448×448×1的灰度圖片. 測(cè)試數(shù)據(jù)集和驗(yàn)證數(shù)據(jù)集各有896張圖片, 在上述數(shù)據(jù)集中無(wú)線、有線和氣泡的缺陷圖片各有300張測(cè)試圖片, 圖片大小為448×448×1的灰度圖片. 使用實(shí)驗(yàn)算法在測(cè)試數(shù)據(jù)集上測(cè)試, 最終得到分類準(zhǔn)確率為95.53%.

經(jīng)過(guò)對(duì)測(cè)試數(shù)據(jù)集圖片內(nèi)容逐張圖片驗(yàn)證發(fā)現(xiàn), 誤判主要于有線板材被嚴(yán)重污染的情況下出現(xiàn). 在對(duì)氣泡和無(wú)線板材進(jìn)行逐張圖片驗(yàn)證時(shí)發(fā)現(xiàn), 這兩類圖片的檢測(cè)準(zhǔn)確率為100%. 根據(jù)工廠質(zhì)量品控標(biāo)準(zhǔn), 可以將合格的檢測(cè)為不合格的, 但是不能存在不合格檢測(cè)為合格的情況. 所以無(wú)線板材的準(zhǔn)確檢測(cè)是保障導(dǎo)光板質(zhì)量的最低標(biāo)準(zhǔn), 實(shí)驗(yàn)算法基本實(shí)現(xiàn)了導(dǎo)光板標(biāo)記線的檢測(cè)要求. 實(shí)驗(yàn)網(wǎng)絡(luò)分類結(jié)果如圖9.

使用VGG-16、V2-ResNet-101、AlexNet與本文網(wǎng)絡(luò)相對(duì)比, 分類結(jié)果如表3所示.

根據(jù)表3數(shù)據(jù)所示, DesneNet-BCNN 與其他主流網(wǎng)絡(luò)對(duì)比結(jié)果如下.

在網(wǎng)絡(luò)參數(shù)方面, 較V2-ResNet-101卷積神經(jīng)網(wǎng)絡(luò)參數(shù)減少了97.2%, 較AlexNet卷積神經(jīng)網(wǎng)絡(luò)參數(shù)減少了97.5%.

在準(zhǔn)確率方面, 較V2-ResNet-101卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確率提升了0.44%, 較AlexNet卷積神經(jīng)網(wǎng)絡(luò)準(zhǔn)確率提升了3.34%.

在平均單張圖片檢測(cè)時(shí)間方面, 較V2-ResNet-101卷積神經(jīng)網(wǎng)絡(luò)快了13.3 ms, 較AlexNet卷積神經(jīng)網(wǎng)絡(luò)慢了29.5 ms.

4 結(jié)語(yǔ)

本文卷積神經(jīng)網(wǎng)絡(luò)主要分兩步完成, 第1步: 通過(guò)修改DenseNet 網(wǎng)絡(luò)結(jié)構(gòu)降低參數(shù)數(shù)量、提高檢測(cè)速度、減少圖片檢測(cè)所用時(shí)間以及避免訓(xùn)練過(guò)擬合. 第2步: 使用遷移學(xué)習(xí)方法, 將第1步訓(xùn)練所的權(quán)重遷移到雙線性CNN進(jìn)行進(jìn)一步訓(xùn)練, 通過(guò)外積操作捕捉特征通道之間的成對(duì)相關(guān)性, 提高分類準(zhǔn)確率. 使用本文算法在低對(duì)比、高紋理、高相似的灰度圖片小數(shù)據(jù)集上進(jìn)行分類, 最終取得了95.53%的準(zhǔn)確率. 相比于V2-ResNet-101 網(wǎng)絡(luò)結(jié)構(gòu), 準(zhǔn)確率提升了0.44%, 參數(shù)減少了97.2%, 平均單張圖像檢測(cè)時(shí)間大約減少25%. 因?yàn)槭褂脵C(jī)器視覺(jué)的方法對(duì)導(dǎo)光板缺陷進(jìn)行檢測(cè)的相關(guān)文獻(xiàn)較少, 使用深度學(xué)習(xí)方法的文獻(xiàn)更加稀少. 因此現(xiàn)有的導(dǎo)光板檢測(cè)方面的文獻(xiàn), 無(wú)法提供有價(jià)值的參考和對(duì)比. 由于工場(chǎng)計(jì)件生產(chǎn)規(guī)則限制, 無(wú)法在工廠生產(chǎn)線上進(jìn)行長(zhǎng)時(shí)間的、大負(fù)荷的、連續(xù)的算法魯棒性和穩(wěn)定性評(píng)測(cè). 但是在與傳統(tǒng)算法搭配進(jìn)行缺陷檢測(cè)的過(guò)程中, 就目前的算法檢測(cè)結(jié)果來(lái)看, 已基本滿足工業(yè)生產(chǎn)的缺陷檢測(cè)需要. 下一步, 在面對(duì)減少缺陷檢測(cè)時(shí)間、提高缺陷檢測(cè)準(zhǔn)確率、保證算法魯棒性和穩(wěn)定性等方面, 需要更深入的研究和分析。

責(zé)任編輯:YYX

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4797

    瀏覽量

    102222
  • 導(dǎo)光板
    +關(guān)注

    關(guān)注

    0

    文章

    15

    瀏覽量

    10405
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22563

原文標(biāo)題:基于雙線性CNN與DenseBlock的導(dǎo)光板標(biāo)記線缺陷檢測(cè)

文章出處:【微信號(hào):vision263com,微信公眾號(hào):新機(jī)器視覺(jué)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 0人收藏

    評(píng)論

    相關(guān)推薦

    安泰電壓放大器在缺陷局部的無(wú)損檢測(cè)研究中的應(yīng)用

    實(shí)驗(yàn)名稱:基于LDR振型的損傷檢測(cè)方法實(shí)驗(yàn) 研究方向:隨著科技的不斷進(jìn)步,材料中的腐蝕、分層等缺陷是導(dǎo)致結(jié)構(gòu)剛度下降、破壞失效的主要原因。為保證結(jié)構(gòu)的安全性與可靠性,對(duì)其進(jìn)行無(wú)損檢測(cè)是重要的。首先
    的頭像 發(fā)表于 03-24 11:12 ?181次閱讀
    安泰電壓放大器在<b class='flag-5'>缺陷</b>局部的無(wú)損<b class='flag-5'>檢測(cè)</b>研究中的應(yīng)用

    英國(guó)真尚有焊孔檢測(cè)系統(tǒng) 焊接標(biāo)記孔高速在線檢測(cè)

    檢測(cè)焊接標(biāo)記孔在許多行業(yè)中具有重要意義,尤其是在制造和建筑領(lǐng)域。在這些行業(yè)中,金屬板材的焊接和切割是常見(jiàn)的生產(chǎn)環(huán)節(jié)。為了確保產(chǎn)品的強(qiáng)度和使用壽命,必須對(duì)靠近焊縫的沖孔(焊接標(biāo)記孔)進(jìn)行檢測(cè)
    的頭像 發(fā)表于 03-06 09:53 ?192次閱讀

    X-Ray檢測(cè)設(shè)備能檢測(cè)PCBA的哪些缺陷

    X-Ray檢測(cè)設(shè)備可以檢測(cè)PCB(電路板)的多種內(nèi)部及外部缺陷,如果按照區(qū)域區(qū)分的話,主要能觀測(cè)到一下幾類缺陷: 焊接缺陷: 空洞(Void
    的頭像 發(fā)表于 02-08 11:36 ?361次閱讀

    方便面面餅外觀檢測(cè):精準(zhǔn)識(shí)別0.5mm2細(xì)微缺陷

    在上篇文章中,我們了解了食品行業(yè)在外觀缺陷檢測(cè)時(shí)的現(xiàn)有難點(diǎn),并分享了阿丘科技對(duì)鵪鶉蛋進(jìn)行外觀缺陷檢測(cè)時(shí)的典型場(chǎng)景案例,詳細(xì)內(nèi)容可查看《鵪鶉蛋的外觀
    的頭像 發(fā)表于 12-12 17:35 ?666次閱讀
    方便面面餅外觀<b class='flag-5'>檢測(cè)</b>:精準(zhǔn)識(shí)別0.5mm2細(xì)微<b class='flag-5'>缺陷</b>

    X-RAY檢測(cè)設(shè)備用于檢測(cè)集成電路缺陷瑕疵

    X-ray檢測(cè)設(shè)備在集成電路缺陷瑕疵檢測(cè)中發(fā)揮著至關(guān)重要的作用。以下是對(duì)X-ray檢測(cè)設(shè)備在集成電路缺陷瑕疵
    的頭像 發(fā)表于 12-02 18:07 ?608次閱讀
    X-RAY<b class='flag-5'>檢測(cè)</b>設(shè)備用于<b class='flag-5'>檢測(cè)</b>集成電路<b class='flag-5'>缺陷</b>瑕疵

    X射線工業(yè)CT檢測(cè)設(shè)備用于復(fù)合新材料內(nèi)部缺陷檢測(cè)

    X射線工業(yè)CT檢測(cè)設(shè)備在復(fù)合新材料內(nèi)部缺陷檢測(cè)中發(fā)揮著重要作用。以下是關(guān)于該設(shè)備在復(fù)合新材料內(nèi)部缺陷檢測(cè)中的詳細(xì)分析:一、X射線工業(yè)CT
    的頭像 發(fā)表于 09-10 18:23 ?688次閱讀
    X射線工業(yè)CT<b class='flag-5'>檢測(cè)</b>設(shè)備用于復(fù)合新材料內(nèi)部<b class='flag-5'>缺陷</b><b class='flag-5'>檢測(cè)</b>

    ATA-8202射頻功率放大器在應(yīng)力導(dǎo)波缺陷檢測(cè)研究中的應(yīng)用

    實(shí)驗(yàn)名稱:基于應(yīng)力導(dǎo)波的缺陷檢測(cè)的研究研究方向:無(wú)損檢測(cè)、缺陷定位實(shí)驗(yàn)?zāi)康模夯趬弘妭鞲蟹ㄟM(jìn)行導(dǎo)管缺陷
    的頭像 發(fā)表于 08-21 11:43 ?497次閱讀
    ATA-8202射頻功率放大器在應(yīng)力導(dǎo)波<b class='flag-5'>缺陷</b><b class='flag-5'>檢測(cè)</b>研究中的應(yīng)用

    基于AI深度學(xué)習(xí)的缺陷檢測(cè)系統(tǒng)

    在工業(yè)生產(chǎn)中,缺陷檢測(cè)是確保產(chǎn)品質(zhì)量的關(guān)鍵環(huán)節(jié)。傳統(tǒng)的人工檢測(cè)方法不僅效率低下,且易受人為因素影響,導(dǎo)致誤檢和漏檢問(wèn)題頻發(fā)。隨著人工智能技術(shù)的飛速發(fā)展,特別是深度學(xué)習(xí)技術(shù)的崛起,基于AI深度學(xué)習(xí)的
    的頭像 發(fā)表于 07-08 10:30 ?2064次閱讀

    CNN的定義和優(yōu)勢(shì)

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)作為深度學(xué)習(xí)領(lǐng)域的核心成員,不僅在學(xué)術(shù)界引起了廣泛關(guān)注,更在工業(yè)界尤其是計(jì)算機(jī)視覺(jué)領(lǐng)域展現(xiàn)出了巨大的應(yīng)用價(jià)值。關(guān)于
    的頭像 發(fā)表于 07-05 17:37 ?5355次閱讀

    基于CNN的網(wǎng)絡(luò)入侵檢測(cè)系統(tǒng)設(shè)計(jì)

    入侵檢測(cè)提供了新的思路和方法。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為深度學(xué)習(xí)的一種重要模型,以其強(qiáng)大的特征提取能力和模式識(shí)別能力,在網(wǎng)絡(luò)入侵檢測(cè)領(lǐng)域展現(xiàn)出巨大的潛力。
    的頭像 發(fā)表于 07-05 17:28 ?1755次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見(jiàn)網(wǎng)絡(luò)架構(gòu)以及實(shí)際應(yīng)用案例。 引言 1.1
    的頭像 發(fā)表于 07-03 09:28 ?1061次閱讀

    外觀缺陷檢測(cè)原理

    的結(jié)合應(yīng)用加速滲透進(jìn)工業(yè)產(chǎn)品的 外觀缺陷檢測(cè) 領(lǐng)域。思普泰克憑借深耕機(jī)器視覺(jué)多年沉淀的技術(shù)實(shí)力,建立以深度學(xué)習(xí)技術(shù)為核心的差異化發(fā)展優(yōu)勢(shì),開(kāi)發(fā)出視覺(jué)引擎等工業(yè)級(jí)視覺(jué)應(yīng)用產(chǎn)品,全面賦能產(chǎn)品外觀缺陷
    的頭像 發(fā)表于 06-17 17:38 ?653次閱讀
    外觀<b class='flag-5'>缺陷</b><b class='flag-5'>檢測(cè)</b>原理

    產(chǎn)品標(biāo)簽OCR識(shí)別缺陷檢測(cè)系統(tǒng)方案

    目前實(shí)驗(yàn)來(lái)看,康耐德機(jī)器視覺(jué)可以檢測(cè)出標(biāo)簽有無(wú)以及有沒(méi)貼歪斜,印刷字符只能檢測(cè)出缺陷比較大的產(chǎn)品,具體還要以實(shí)際缺陷產(chǎn)品來(lái)模擬確認(rèn)。此方案適合65mm以下產(chǎn)品,由于顏色太多,不能所有產(chǎn)品都兼容。
    的頭像 發(fā)表于 06-10 18:26 ?933次閱讀
    產(chǎn)品標(biāo)簽OCR識(shí)別<b class='flag-5'>缺陷</b><b class='flag-5'>檢測(cè)</b>系統(tǒng)方案

    想要高效檢測(cè)O型圈外觀缺陷?必看攻略!

    等外觀缺陷檢測(cè)速度每分鐘60/min 為解決客戶產(chǎn)品測(cè)量編程量大、效率低等問(wèn)題,思普泰克提供了高效、簡(jiǎn)潔的 O型圈外觀缺陷檢測(cè) 解決方案。 配置:思普泰克旗下影像產(chǎn)品
    的頭像 發(fā)表于 05-16 17:19 ?844次閱讀
    想要高效<b class='flag-5'>檢測(cè)</b>O型圈外觀<b class='flag-5'>缺陷</b>?必看攻略!

    請(qǐng)問(wèn)STM32F中空閑及地址標(biāo)記喚醒功能怎么實(shí)現(xiàn)的?

    STM32F中空閑及地址標(biāo)記喚醒功能怎么實(shí)現(xiàn)的? 越細(xì)越好
    發(fā)表于 05-11 08:10
    主站蜘蛛池模板: 国产精品久久久久久久久LI无码 | 亚洲精品在线免费 | 亚洲熟少妇在线播放999 | 热re99久久精品国99热 | 男女后进式猛烈xx00动态图片 | 亚洲精品免费在线视频 | 草莓视频在线播放视频 | 中文字幕一区二区三区在线不卡 | 99久久香蕉 | www精品一区二区三区四区 | 玉娇龙续集春雪瓶txt免费阅读 | 诱受H嗯啊巨肉各种play | 91亚洲 欧美 国产 制服 动漫 | 亚洲天堂视频网站 | 色欲AV精品人妻一区二区三区 | 欧美午夜福利主线路 | 美女被强奷到抽搐的动态图 | FREE17一18外女破 | 中国女人精69xxxxxx视频 | 欧美午夜特黄AAAAAA片 | 欧美精品乱码99久久蜜桃 | 拔萝卜视频免费看高清 | 成年人在线免费观看视频网站 | 亚洲综合免费视频 | 精品无码乱码AV | 皮皮在线精品亚洲 | 俄罗斯搜索引擎Yandex推广入口 | jizz丝袜 | 国产三级精品三级在线观看 | 在线观看永久免费网站 | 最新亚洲一区二区三区四区 | 色婷婷粉嫩AV精品综合在线 | 日日夜夜影院在线播放 | 日本一区精品久久久久影院 | 国产精品你懂的在线播放 | 亚洲日本一区二区三区在线不卡 | 亚洲精品乱码久久久久久中文字幕 | 色橹橹欧美在线观看视频高清 | 6080yy亚洲久久无码 | 免费在线视频a | 网友自拍区视频精品 |

    電子發(fā)燒友

    中國(guó)電子工程師最喜歡的網(wǎng)站

    • 2931785位工程師會(huì)員交流學(xué)習(xí)
    • 獲取您個(gè)性化的科技前沿技術(shù)信息
    • 參加活動(dòng)獲取豐厚的禮品