看幾小時視頻就能模仿人類聊天?非死book機器人表情豐富著呢

jopen 7年前發布 | 12K 次閱讀 Facebook 機器人

人形機器人的相似度與人類的好感度不成正比。根據日本機器人專家森政弘 1970 年提出的恐怖谷理論,隨著物體擬人程度增加,人類的反應呈增-減-增曲線。當擬人度達到某一程度時,人類好感度會大幅下降,甚至還會覺得擬人物驚悚可怕。

看幾小時視頻就能模仿人類聊天?非死book機器人表情豐富著呢

恐怖谷理論/維基百科

非死book 正在努力讓自己的機器人盡快跨過恐怖谷。

近日,非死book 人工智能實驗室(FAIR)的研究人員就開發出一個善于表達情緒的機器人。這是由一個由 AI 算法操控的虛擬動畫機器人,在觀察幾小時人類 Skype 聊天視頻能模仿人的表情。

68 個面部標記區塊

為了更好模擬人類的情感表達方式,研究人員將動畫中的人臉分成 68 個區塊,在 Skype 對話中重點觀察這些部位的變化。在交談中,人類的點頭、眨眼和嘴部的動作變化都會反應出來,機器人會學會這些面部變化。

看幾小時視頻就能模仿人類聊天?非死book機器人表情豐富著呢

上圖為捕捉到的人類對話中的面部表情,下圖為系統對面部表情的追蹤

觀察一段時間后,動畫機器人可以實時預測可能出現的面部表情。如果視頻中人在笑,機器人也可能張開嘴,或者歪著頭。

測試結果

隨后,非死book 研究人員進行了一組測試。志愿者們觀看了人和人對話的原版視頻,以及訓練后的機器人模擬的反應,他們認為機器人表現得自然且真實。

看幾小時視頻就能模仿人類聊天?非死book機器人表情豐富著呢看幾小時視頻就能模仿人類聊天?非死book機器人表情豐富著呢

圖片中線條高低表示嘴部(左)及眼部(右)的張合度,可以看出用戶(上)和智能體預測(下)的表情基本一致

因為目前算法還只能表現在動畫中,尚不清楚算法支持的人形機器人的反應如何。

學習面部交流的基本規則不足以創造真正的對話伙伴,以色列特拉維夫大學的博士生 Goren Gordon 說,“真正的面部表情是要基于所思所感的。”

“在這種情況下,非死book 系統會創造出一種平均性格”,卡內基梅隆大學語言技術學院副教授 louis-Philippe Morency 說。在未來,機器人的性格可能更復雜,或能根據談話對象調整自己的性格。

機器人不擅長人類之間互動的這些微妙元素,Gordon 說。他同時表達了對機器人的期望:“在某一時刻,我們終會走出恐怖谷,走到另一邊。”

看幾小時視頻就能模仿人類聊天?非死book機器人表情豐富著呢

日本大阪大學智能機器人研究所設計的人形機器人女播音員 Otonaroid

非死book 將在本月 24 號溫哥華召開的 IROS 2017 上展示這項技術,目前已將這項技術的論文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公開。

論文摘要

在這篇論文中,我們研究了人類和智能體面對面交流中的非語言面部暗示,提出了基于用戶表情自動學習并升級智能體面部情感表達的方法。我們用數百個視頻訓練神經網絡,包含人類相互對話的視頻,這其中沒有加入外部的人為監督。

實驗結果顯示,我們的智能體面部標記模型可以長時間預測人類的表情;對比結果也表明,模型明顯優于基線方法。最后,我們進行了更深入的研究以更好地理解模型性能。

本項研究的數據集已經開放,方便領域內的其他研究者使用。

論文下載:https://www.dropbox.com/s/ljfnv3i1jw0uzbh/learn2smile-learning-verbal.pdf?dl=0

來自: 36kr.com

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!