研究人員最近開發了一種機器學習方法,可以從一個人的步態識別人的情緒(例如,積極或消極,平靜或精力充沛)。這是第一種此類方法,并在初步實驗中取得了80.07%的準確率。
一個人走路的樣子很能說明人在特定時刻的感受。例如,當你感到壓抑或沮喪時,相比感到心滿意足時,走路的時候更可能耷拉著肩膀。
利用這種身體語言,教堂山大學和馬里蘭大學的研究人員最近開發了一種機器學習方法,可以從一個人的步態中識別人的感知情緒(例如,積極或消極,平靜或精力充沛)。研究人員稱這是第一種此類方法,并且在初步實驗中取得了80.07%的準確率。
論文地址:
https://arxiv.org/pdf/1906.11884.pdf
“情感在我們的生活中扮演著重要的角色,定義著我們的經歷,塑造著我們看待世界和與他人互動的方式,”作者在論文中寫道?!坝捎诟兄楦性谌粘I钪械闹匾裕詣忧楦凶R別在許多領域都是一個關鍵問題,比如游戲和娛樂、安全和執法、購物、人機交互等?!?/p>
研究人員選擇了四種情緒:快樂、悲傷、憤怒和中性,因為這些情緒傾向于“持續較長一段時間”,以及這些情緒對步態活動的影響較大。
然后,他們從多個步行視頻語料庫中提取步態來識別情感特征,并使用三維姿態估計技術提取姿態。
最后,他們利用長短時記憶(LSTM)模型——能夠學習長期依賴關系——從姿態序列中獲得特征,并將其與隨機森林分類器(該分類器輸出多個獨立決策樹的平均預測)相結合,將樣本分類為上述四種情緒類別。
這些特征包括肩膀姿勢、連續步數之間的距離以及手和脖子之間的區域。
頭部傾斜角度被用來區分快樂和悲傷的情緒,而“身體緊張”和“身體舒張”分別識別積極和消極的情緒。至于情緒平靜還是精神充沛,研究人員注意到它往往與運動量是否增加相對應,該模型考慮了速度、加速度的大小,以及手、腳和頭部關節的“運動抖動”。
AI系統處理的樣本來自“Emotion Walk”數據集,簡稱EWalk。EWalk是一組包含1384個步態的新數據集,這些步態是從24名受試者在大學校園(包括室內和室外)散步的視頻中提取的。大約有700名來自 Amazon Mechanical Turk 的參與者給情緒貼上標簽,研究人員用這些標簽來確定情緒的類別和興奮程度。
在測試中,研究人員報告說,他們的情感檢測方法比最先進的算法提高了13.85%,比不考慮情感特征的“普通”LSTM提高了24.60%。
但這并不是說它是萬無一失的——它的精度在很大程度上取決于3D人體姿態估計和步態提取的精度。但盡管有這些限制,研究人員相信他們的方法將為涉及額外活動和其他情感識別算法的研究提供堅實的基礎。
“我們的方法也是第一個利用最先進的3D人體姿態估計技術,為步行視頻中的情緒識別提供實時通道的方法,”研究者寫道?!白鳛槲磥砉ぷ鞯囊徊糠郑覀兿M占嗟臄祿⒔鉀Q目前的限制?!?/p>
-
分類器
+關注
關注
0文章
152瀏覽量
13179 -
機器學習
+關注
關注
66文章
8406瀏覽量
132567
原文標題:今天你快樂嗎?AI 從走路姿態就能識別你的情緒
文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。
發布評論請先 登錄
相關推薦
評論