怎樣用蘋果CoreML實現iPhone的目標識別
在WWDC 2017上,蘋果首次公布了機器學習方面的動作。iOS系統早已支持Machine Learning 和 Computer Vision ,但這次蘋果提供了更合理,容易上手的API,讓那些對基礎理論知識一竅不通的門外漢也能玩轉高大上的前沿科技。
這篇文章介紹了通過蘋果最新的API把YOLO模型集成到APP中的兩種方法。此前,AI100(rgznai100)介紹過YOLO這個項目,它是一個用于攝像頭的實時目標檢測系統,詳情請參閱:《YOLO一眼就能認出你:看一個神經網絡如何全視野實時檢測目標》
作者 | Matthijs Hollemans
編譯 | AI100(rgznai100)
參與 | thinkdeeper、胡永波
幾周前,我寫了篇關于YOLO(一個用于目標檢測的神經網絡模型)的教程。并且我使用Metal Performance Shader和我的Forge神經網絡庫,實現了該版本的YOLO(實際上是Tiny YOLO)。
關于YOLO的教程
http://machinethink.net/blog/object-detection-with-yolo/
Forge神經網絡庫
https://github.com/hollance/Forge
此后,蘋果公司宣布了可以在設備上應用機器學習的兩種新技術:Core ML和MPS graph API(Core ML 構建于MPS之上,MPS更底層)。在這篇博文中,我們會使用這些新的API來實現Tiny YOLO。
在設備上應用機器學習的兩種新技術
http://machinethink.net/blog/ios-11-machine-learning-for-everyone
快速回顧:YOLO是由9個卷積層和6個最大池化層組成的神經網絡,但其最后一層不會像分類器那樣輸出概率分布。相反,最后一層產生13×13×125張量。
該輸出張量描述了13×13個單元格。每個單元格預測5個邊界框(每個邊界框由25個數字描述)。然后,我們使用非最大抑制來找到最佳邊界框。
非常好我支持^.^
(0) 0%
不好我反對
(0) 0%