色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用計算機(jī)視覺技術(shù)識別棋子及其在棋盤上的位置

新機(jī)器視覺 ? 來源:小白學(xué)視覺 ? 作者:小白學(xué)視覺 ? 2022-03-21 13:16 ? 次閱讀

本期我們將一起學(xué)習(xí)如何使用計算機(jī)視覺技術(shù)識別棋子及其在棋盤上的位置

我們利用計算機(jī)視覺技術(shù)和卷積神經(jīng)網(wǎng)絡(luò)(CNN)為這個項目創(chuàng)建分類算法,并確定棋子在棋盤上的位置。最終的應(yīng)用程序會保存整個圖像并可視化的表現(xiàn)出來,同時輸出棋盤的2D圖像以查看結(jié)果。

01. 數(shù)據(jù)

我們對該項目的數(shù)據(jù)集有很高的要求,因為它最終會影響我們的實驗結(jié)果。我們在網(wǎng)上能找到的國際象棋數(shù)據(jù)集是使用不同的國際象棋集、不同的攝影機(jī)拍攝得到的,這導(dǎo)致我們創(chuàng)建了自己的數(shù)據(jù)集。我使用國際象棋和攝像機(jī)(GoPro Hero6 Black以“第一人稱視角”角度)生成了自定義數(shù)據(jù)集,這使我的模型更加精確。該數(shù)據(jù)集包含2406張圖像,分為13類(請參閱下文)。總結(jié):這花費了我們很多時間,但是這使得訓(xùn)練圖像盡可能地接近在應(yīng)用程序中使用時所看到的圖像。

如何使用計算機(jī)視覺技術(shù)識別棋子及其在棋盤上的位置

自定義數(shù)據(jù)集的細(xì)分

為了構(gòu)建該數(shù)據(jù)集,我首先創(chuàng)建了capture_data.py,當(dāng)單擊S鍵時,該視頻從視頻流中獲取一幀并將其保存。這個程序使我能夠無縫地更改棋盤上的棋子并一遍又一遍地捕獲棋盤的圖像,直到我建立了大量不同的棋盤配置為止。接下來,我創(chuàng)建了create_data.py,以使用下一部分中討論的檢測技術(shù)將其裁剪為單獨小塊。最后,我通過將裁剪后的圖像分成帶標(biāo)簽的文件夾來對它們進(jìn)行分類。

02. 棋盤檢測

對于棋盤檢測,我想做的事情比使用OpenCV函數(shù)findChessboardCorners復(fù)雜的多,但又不像CNN那樣高級。使用低級和中級計算機(jī)視覺技術(shù)來查找棋盤的特征,然后將這些特征轉(zhuǎn)換為外邊界和64個獨立正方形的坐標(biāo)。該過程以Canny邊緣檢測和Hough變換生成的相交水平線、垂直線的交點為中心。層次聚類用于按距離對交叉點進(jìn)行分組,并對各組取平均值以創(chuàng)建最終坐標(biāo)(請參見下文)。

如何使用計算機(jī)視覺技術(shù)識別棋子及其在棋盤上的位置

完整的棋盤檢測過程

03. 棋盤分類

項目伊始,我們想使用Keras / TensorFlow創(chuàng)建CNN模型并對棋子進(jìn)行分類。但是,在創(chuàng)建數(shù)據(jù)集之后,僅考慮CNN的大小,單靠CNN就無法獲得想要的結(jié)果。為了克服這一障礙,我利用了ImageDataGenerator和transfer learning,它增加了我的數(shù)據(jù)并使用了其他預(yù)訓(xùn)練的模型作為基礎(chǔ)。

創(chuàng)建CNN模型

為了使用GPU,我在云中創(chuàng)建并訓(xùn)練了CNN模型,從而大大減少了訓(xùn)練時間。快速提示:Google Colab是使用GPU快速入門的簡便方法。為了提高數(shù)據(jù)的有效性,我使用了ImageDataGenerator來擴(kuò)展原始圖像并將模型暴露給不同版本的數(shù)據(jù)。ImageDataGenerator函數(shù)針對每個時期隨機(jī)旋轉(zhuǎn),重新縮放和翻轉(zhuǎn)(水平)訓(xùn)練數(shù)據(jù),從本質(zhì)上創(chuàng)建了更多數(shù)據(jù)。盡管還有更多的轉(zhuǎn)換選項,但這些轉(zhuǎn)換選項對該項目最有效。

from keras.preprocessing.image import ImageDataGeneratordatagen = ImageDataGenerator(        rotation_range=5,        rescale=1./255,        horizontal_flip=True,        fill_mode='nearest')test_datagen = ImageDataGenerator(rescale=1./255)train_gen = datagen.flow_from_directory(    folder + '/train',    target_size = image_size,    batch_size = batch_size,    class_mode = 'categorical',    color_mode = 'rgb',    shuffle=True)test_gen = test_datagen.flow_from_directory(    folder + '/test',    target_size = image_size,    batch_size = batch_size,    class_mode = 'categorical',    color_mode = 'rgb',    shuffle=False)

我們沒有從頭開始訓(xùn)練模型,而是通過利用預(yù)先訓(xùn)練的模型并添加了使用我的自定義數(shù)據(jù)集訓(xùn)練的頂層模型來實現(xiàn)轉(zhuǎn)移學(xué)習(xí)。我遵循了典型的轉(zhuǎn)移學(xué)習(xí)工作流程:

1.從先前訓(xùn)練的模型(VGG16)中獲取圖層。

from keras.applications.vgg16 import VGG16model = VGG16(weights='imagenet')model.summary()

2.凍結(jié)他們,以避免破壞他們在訓(xùn)練回合中包含的任何信息

3.在凍結(jié)層的頂部添加了新的可訓(xùn)練層。

from keras.models import Sequentialfrom keras.layers import Dense, Conv2D, MaxPooling2D, Flattenfrom keras.models import Modelbase_model = VGG16(weights='imagenet', include_top=False, input_shape=(224,224,3))  # Freeze convolutional layers from VGG16for layer in base_model.layers:    layer.trainable = False# Establish new fully connected blockx = base_model.outputx = Flatten()(x) x = Dense(500, activation='relu')(x) x = Dense(500, activation='relu')(x)predictions = Dense(13, activation='softmax')(x)# This is the model we will trainmodel = Model(inputs=base_model.input, outputs=predictions)model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['categorical_accuracy'])

4.在自定義數(shù)據(jù)集上訓(xùn)練新層。

epochs = 10history = model.fit(    train_gen,     epochs=epochs,    verbose = 1,    validation_data=test_gen)model.save_weights('model_VGG16.h5')

當(dāng)我們使用VGG16或VGG19作為預(yù)訓(xùn)練模型創(chuàng)建模型時,由于驗證精度更高,因此選擇了使用VGG16的模型。另外,最佳epochs 是10。任何大于10的數(shù)均不會使驗證準(zhǔn)確性的提高,也不會增加訓(xùn)練與驗證準(zhǔn)確性之間的差異。總結(jié):轉(zhuǎn)移學(xué)習(xí)使我們可以充分利用深度學(xué)習(xí)在圖像分類中的優(yōu)勢,而無需大型數(shù)據(jù)集。

04. 結(jié)果

為了更好地可視化驗證準(zhǔn)確性,我創(chuàng)建了模型預(yù)測的混淆矩陣。通過此圖表,可以輕松評估模型的優(yōu)缺點。優(yōu)點:空-準(zhǔn)確率為99%,召回率為100%;白棋和黑棋(WP和BP)-F1得分約為95%。劣勢:白騎士(WN)-召回率高(98%),但準(zhǔn)確性卻很低(65%);白主教(WB)-召回率最低,為74%。

如何使用計算機(jī)視覺技術(shù)識別棋子及其在棋盤上的位置

測試數(shù)據(jù)的混淆矩陣

05. 應(yīng)用

該應(yīng)用程序的目標(biāo)是使用CNN模型并可視化每個步驟的性能。我們創(chuàng)建了cv_chess.py,它清楚地顯示了步驟,并創(chuàng)建了cv_chess_functions.py,它顯示了每個步驟的詳細(xì)信息。此應(yīng)用程序保存實時視頻流中的原始幀,每個正方形的64個裁剪圖像以及棋盤的最終2D圖像。

print('Working...')        # Save the frame to be analyzed        cv2.imwrite('frame.jpeg', frame)        # Low-level CV techniques (grayscale & blur)        img, gray_blur = read_img('frame.jpeg')        # Canny algorithm        edges = canny_edge(gray_blur)        # Hough Transform        lines = hough_line(edges)        # Separate the lines into vertical and horizontal lines        h_lines, v_lines = h_v_lines(lines)        # Find and cluster the intersecting        intersection_points = line_intersections(h_lines, v_lines)        points = cluster_points(intersection_points)        # Final coordinates of the board        points = augment_points(points)        # Crop the squares of the board a organize into a sorted list        x_list = write_crop_images(img, points, 0)        img_filename_list = grab_cell_files()        img_filename_list.sort(key=natural_keys)        # Classify each square and output the board in Forsyth-Edwards Notation (FEN)        fen = classify_cells(model, img_filename_list)        # Create and save the board image from the FEN        board = fen_to_image(fen)        # Display the board in ASCII        print(board)# Display and save the chessboard image        board_image = cv2.imread('current_board.png')        cv2.imshow('current board', board_image)        print('Completed!')

原文標(biāo)題:基于計算機(jī)視覺的棋盤圖像識別

文章出處:【微信公眾號:機(jī)器視覺智能檢測】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

審核編輯:湯梓紅
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7002

    瀏覽量

    88943
  • 計算機(jī)
    +關(guān)注

    關(guān)注

    19

    文章

    7488

    瀏覽量

    87852
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1083

    瀏覽量

    40449

原文標(biāo)題:基于計算機(jī)視覺的棋盤圖像識別

文章出處:【微信號:vision263com,微信公眾號:新機(jī)器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    讓機(jī)器“看見”—計算機(jī)視覺入門及實戰(zhàn) 第二期基礎(chǔ)技術(shù)

    過優(yōu)異成績。其主要的興趣是關(guān)注人工智能特別是計算機(jī)視覺技術(shù)如何從技術(shù)、產(chǎn)品和商業(yè)角度真實世界中大規(guī)模落地。主題簡介及亮點:本次直播,講者將
    發(fā)表于 09-04 17:56

    單片機(jī)控制的13*13路棋盤能夠自動感知棋子位置棋盤棋子走勢

    要求做出一個單片機(jī)控制的13*13路棋盤,能夠自動感知棋子位置棋盤棋子走勢,并具備一些五子棋對弈功能,此電子
    發(fā)表于 04-10 22:27

    計算機(jī)視覺及其焊接中的應(yīng)用

    簡要闡述了計算機(jī)視覺的基本原理、系統(tǒng)結(jié)構(gòu)和計算機(jī)視覺的基本處理方法,并著重講解了焊接自動化領(lǐng)域的應(yīng)用情況。關(guān)鍵詞:
    發(fā)表于 07-18 10:19 ?9次下載

    基于OpenCV的計算機(jī)視覺技術(shù)實現(xiàn)

    基于OpenCV的計算機(jī)視覺技術(shù)實現(xiàn)OpencV是用來實現(xiàn)計算機(jī)視覺相關(guān)技術(shù)的開放源碼工作庫,是
    發(fā)表于 11-23 21:06 ?0次下載
    基于OpenCV的<b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b><b class='flag-5'>技術(shù)</b>實現(xiàn)

    計算機(jī)視覺講義

    計算機(jī)視覺講義:機(jī)器視覺是研究用計算機(jī)來模擬生物外顯或宏觀視覺功能的科學(xué)和技術(shù).機(jī)器
    發(fā)表于 03-19 08:08 ?0次下載

    計算機(jī)視覺與機(jī)器視覺區(qū)別

     “計算機(jī)視覺”,是指用計算機(jī)實現(xiàn)人的視覺功能,對客觀世界的三維場景的感知、識別和理解。計算機(jī)
    的頭像 發(fā)表于 12-08 09:27 ?1.3w次閱讀

    為什么說現(xiàn)在是計算機(jī)視覺最好的時代?

    過程極具挑戰(zhàn)性,光是隔離圖像并進(jìn)行識別的簡單概念就花費了研究人員大量的時間。經(jīng)過多年的努力,使用計算機(jī)視覺軟件和硬件算法部署深度學(xué)習(xí)技術(shù)的企業(yè)
    的頭像 發(fā)表于 07-29 18:27 ?2216次閱讀

    使用計算機(jī)視覺和人工智能來識別X射線中的計算機(jī)模型

    這些模型使用計算機(jī)視覺和人工智能(AI)分析胸部X射線圖像。它可以對肉眼通常無法識別的信息進(jìn)行分類,并有助于診斷。
    發(fā)表于 05-29 11:07 ?950次閱讀

    計算機(jī)視覺技術(shù)簡介

    由于“計算機(jī)視覺”反映了對視覺環(huán)境及其上下文的相對理解,因此,一些科學(xué)家認(rèn)為,該領(lǐng)域為人工智能領(lǐng)域鋪平了道路。那么什么是計算機(jī)
    發(fā)表于 07-11 11:24 ?4459次閱讀

    剖析計算機(jī)視覺識別簡史

    最近,物體識別已經(jīng)成為計算機(jī)視覺和 AI 最令人激動的領(lǐng)域之一。即時地識別出場景中所有的物體的能力似乎已經(jīng)不再是秘密。隨著卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的發(fā)展,以及大型訓(xùn)練數(shù)據(jù)集和高級
    的頭像 發(fā)表于 04-30 10:14 ?2773次閱讀
    剖析<b class='flag-5'>計算機(jī)</b><b class='flag-5'>視覺</b><b class='flag-5'>識別</b>簡史

    計算機(jī)視覺識別是如何工作的?

    計算機(jī)視覺識別是一種人工智能技術(shù),旨在使計算機(jī)系統(tǒng)從數(shù)字圖像、視頻等視覺信息中
    的頭像 發(fā)表于 02-09 13:41 ?3768次閱讀

    使用計算機(jī)視覺進(jìn)行電梯乘客計數(shù)

    電子發(fā)燒友網(wǎng)站提供《使用計算機(jī)視覺進(jìn)行電梯乘客計數(shù).zip》資料免費下載
    發(fā)表于 06-12 15:35 ?0次下載
    使<b class='flag-5'>用計算機(jī)</b><b class='flag-5'>視覺</b>進(jìn)行電梯乘客計數(shù)

    機(jī)器視覺計算機(jī)視覺的區(qū)別

    機(jī)器視覺計算機(jī)視覺的區(qū)別 機(jī)器視覺計算機(jī)視覺是兩個相關(guān)但不同的概念。雖然許多人使用這兩個術(shù)語
    的頭像 發(fā)表于 08-09 16:51 ?2010次閱讀

    計算機(jī)視覺的工作原理和應(yīng)用

    計算機(jī)視覺(Computer Vision,簡稱CV)是一門跨學(xué)科的研究領(lǐng)域,它利用計算機(jī)和數(shù)學(xué)算法來模擬人類視覺系統(tǒng)對圖像和視頻進(jìn)行識別
    的頭像 發(fā)表于 07-10 18:24 ?1909次閱讀

    機(jī)器視覺計算機(jī)視覺有什么區(qū)別

    機(jī)器視覺計算機(jī)視覺是兩個密切相關(guān)但又有所區(qū)別的概念。 一、定義 機(jī)器視覺 機(jī)器視覺,又稱為計算機(jī)
    的頭像 發(fā)表于 07-16 10:23 ?520次閱讀
    主站蜘蛛池模板: 国产精品久久久久久久久无码| 国产午夜精品福利久久| 久久99精品国产99久久6男男| 日本妈妈xxxx| 70岁妇女牲交色牲片| 国产主播AV福利精品一区| 日韩美一区二区| 99re久久精品在线播放| 久久久GOGO无码啪啪艺术| 无人视频在线观看免费播放影院 | 污到湿的爽文免费阅读| 啊灬啊别停灬用力啊老师| 快播电影官方网站| 伊人久久大香线蕉综合99| 国产在线精彩亚洲| 亚洲 欧美 综合 高清 在线| 丰满大爆乳波霸奶| 色欲久久精品AV无码| 粗好大用力好深快点漫画| 日本理伦片午夜理伦片| AV无码九九久久| 欧美午夜特黄AAAAAA片| mdapptv麻豆下载| 秋霞网在线伦理免费| 成人动漫百度影音| 受喷汁红肿抽搐磨NP双性| 囯产免费久久久久久国产免费| 三级黄视频| 国产精选视频在线观看| 亚洲乱码日产精品BD在线下载| 国产在线视精品在亚洲| 亚洲色欲国产AV精品综合| 精品久久久亚洲精品中文字幕| 伊人久久精品AV无码一区| 两个人在线观看的视频720| 99久久久无码国产精品AAA| 欧美午夜精品一区区电影| 国产成人a视频在线观看| 新妺妺窝人体色WWW| 激情内射亚洲一区二区三区| 18禁黄久久久AAA片|