小說《三體》中,“三體人”不會撒謊、彼此思維和情緒完全透明,這樣的情節正逐漸變為現實。隨著人工智能(AI)情緒識別技術的發展,機器已經能識別人類情緒的變化。情緒識別正被越來越廣泛地應用于機器智能中,也許有一天,人類會被AI徹底看穿。
近日,臺灣聯合大學研究人員在IEEE ACCESS上發表論文,提出用特定連續動作間骨骼點速度的變化程度,來區分人類微妙情緒變化的新方法。該方法與時空圖卷積網絡(ST-GCN)相比,“可有效地將識別精度提高50%以上”。
別動,動就被看穿
“通過面部特征、語義與腦波分析來識別人類情緒的研究已經比較多了,AI也能有效地識別出人類的情緒。我們試圖提出一種新的情緒識別方式,可以讓人們在不同場景下有更多選擇,未來也可以通過多手段融合,更準確地進行情緒識別。”論文第一作者、臺灣聯合大學助理教授蔡明峰在接受《中國科學報》采訪時表示,“基于Pose Net深度學習神經網絡,我們提出時空變化圖卷積網絡技術,在進行情緒識別時,獲得人體骨架關鍵點信息不受衣物、皮膚或肌肉等因素的影響。”
在人工智能情緒識別領域,基于面部、語義或腦電波識別技術需要大量的訓練樣本,通過時空變化圖卷積網絡(STV-GCN)的連續運動來訓練和識別人類行為模式。其識別訓練方法采用骨骼檢測技術,計算連續動作之間的骨骼點變化程度,并使用特定算法對速度水平進行分類,以區分快速和細微的動作。
目前,該系統對相同動作不同速度的識別精度達到88.89%,情緒狀態的識別精度達到83.34%。在速度分類階段和情緒狀態分類階段,STV-GCN的準確率比ST-GCN提高50%以上。但是,STV-GCN尚難以區分微妙的情緒變化。
蔡明峰認為,在類似城市廣場的開放區域中,通過骨骼點變化進行情感識別,可以避免潛在的危險發生。系統可以主動識別憤怒或者悲傷等特殊情緒狀況的人,并主動通知該區域的安全管理人員進行處理,可以在一定程度上規避暴力沖突或惡性傷害事件發生。
AI“懂你”九分
“并非只有面部才有微表情,身體姿態也有。”中國科學院自動化研究所研究員、模式識別國家重點實驗室副主任陶建華告訴《中國科學報》,“通過面部區域或身體姿態來識別情緒其實各有優缺點,各有不同的適應場景,很難說誰比誰強。”
在AI情緒識別領域,多數識別方法在分析面部表情的背景下進行。而在現實生活中,人們有時會通過語言和表情來掩飾自己的情緒,相比之下,肢體語言卻很難操縱,微表情很難被掩飾,往往能傳達出更細致、真實的情感狀態。
陶建華介紹說,目前主要有兩種AI情感識別方式。一種是接觸式,即利用腦電、皮膚電、心率心跳等生理特征的信號變化,通過生理參數分析人的情緒變化。另一種是非接觸式,可以基于音頻或視頻,利用聲音的特點或者依靠視頻信息中表情、頭部、身體姿態變化進行識別。“無論是傳統的統計模型,還是現在基于神經網絡、深度神經網絡的一些方法,都能取得比較好的結果”。
“機器不但能識別出人的情緒,還相當準確。總體來說,現在的準確率超過80%,在一些特定的場景中,甚至能達到90%以上。”陶建華說,“情感識別是一種信息通道,準確的識別能增強機器對人的理解能力,如果結合語義、周圍環境等信息,機器可以綜合判斷人的心理狀況和真實的意圖,從而改善人機交互能力,增強人機交互的友好性。”
更多的應用場景
“能夠識別出人類的情感和機器自己具備情感是兩個概念。”陶建華說,“情感的產生涉及一系列復雜的心理過程,是包括社會文化、周圍環境情況、心理狀態等多因素綜合作用的結果。盡管人們對AI情感表現方面有些研究,但目前從全球范圍內來說,機器產生的情感都是比較初級,與人類還有不小的距離。”
陶建華介紹說,機器與人、機器與機器之間的交流和人們的理想尚有距離。在情感識別過程中,如何在一個數據集中做好一個模型、在更大范圍內使用是一個問題。“為此,有些方面需要進一步提高,但這些都不是難以克服的問題。”
如果AI能夠更“善解人意”,就可以應用到更多的場景。比如,在全球疫情常態化的背景下,線上學習逐漸成為一種重要的學習方式。但是,屏幕前的學生是否在認真聽講、是否聽懂了?他在困惑、緊張或者覺得乏味時,都會有相應的情緒和表現。如果通過AI技術,識別出屏幕前學生的情緒并判斷出學習狀態,就可以更好地控制難度和進度。
截至目前,已經有不少AI情緒識別研究機構在遠程醫療、遠程教育、養老看護、打擊犯罪、營銷、游戲,以及定向廣告投放等領域進行探索。據一家市場研究公司預測,2021年全球情感計算市場將達到540億美元。(張雙虎)
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。