諾亞神經響應機NRM模型:深度學習改變自然語言對話

jopen 9年前發布 | 8K 次閱讀 深度學習

圖靈測試是人工智能的夢想,它所要完成的任務是機器智能判定實驗,即讓機器和人能夠通過自然語言對話(Natural Language Dialogue,NLD)來溝通。這項長期困擾研究人員的工作,因為深度學習的引入,有了新的進展。

最新的 NLD 工作,在基于檢索的對話中引入深度學習,華為諾亞方舟實驗室(簡稱諾亞)是最早開始此項工作的玩家之一。從 2013 年開始,諾亞在短文本對話領域有一系列的工作【1】【2】【3】。今年 3 月初,諾亞的研究人員在 arXiv 上公布的一篇論文(這篇文章也將在今年 7 月的 ACL 會議上發表【4】),第一次提出了完全基于神經網絡的對話模型“神經響應機”(Neural Responding Machine,NRM),用于人機之間的單輪對話(single-turn dialog)。

諾亞研究人員介紹,對用戶說的話,NRM 用一種混合機制來進行表示,從而既對文本有整體的把握,又充分保留了句子的細節信息。在對輸入問題的表示的基礎上,NRM 采用了遞歸神經網絡(Recurrent Neural Network)來逐字的生成自然語言的句子作為回復。NRM 從五百萬個(微博,回復)對中學習人的回復,這些學到的模式存于系統的近四百萬參數中。因為 NRM 中部分采用了 attention 的機制,可以相對容易掌握比較復雜的模式,如:

人:  你好,我是利鋒。

NRM:  利鋒你好!

當然,NRM 以及隨后出現的類似模型,如 Google 的 Neural Conversational Model(NCM)【5】, 還停留在對復雜語言模式記憶和組合上,尚無法在對話中使用外界的知識。例如,在對“看了昨晚恒大的比賽了嗎?”這樣的句子,無法給出真實的狀況(例如昨晚 恒大比賽的結果)相關的回復。

但依舊不能否認 NRM 的意義。此前的近幾十年,研究人員不懈努力而生成的對話系統(dialogue model),大都是基于規則和模板, 或者是在一個較大的對話數據庫中進行搜索。這種兩種方式并非真正的產生對話,又缺乏對語言的有效理解和表示。囿于模板/例子的數量和表示的局限性,這些方 式在準確性和靈活性上都存在一定的不足,很難兼顧語言的自然通順和內容的適當切題,效果與引入深度學習的模型不可同日而語。

所以說,NRM 模型的提出,更多的可能性和想象空間才剛剛開始。事實上,諾亞已經以此為基礎展開深度學習在對話方面的深入研究,包括多輪對話(multi-turn dialog),與強化學習(reinforcement learning)結合的對話管理,以及在對話中引入知識(knowledge)等。

參考文獻

【1】  H. Wang, Z. Lu, H. Li, E. Chen. A Dataset for Research on Short-text Conversations. In Proceedings of EMNLP, 2013

【2】  Z. Ji, Z. Lu, H. Li. An information Retrieval Approach to Short-text Conversation. arXiv: 1408.6988, 2014.

【3】  B. Hu, Z. Lu, H. Li, Q. Chen. Convolutional Neural Network Architectures for Matching Natural Language Sentences. In Advances of NIPS, 2014

【4】  L. Shang, Z. Lu, and H. Li. Neural Responding Machine for Short-text Conversation. In Proceedings of ACL,2015.

【5】  O. Vinyals, and Q. V. Le. A Neural Conversational Model. arXiv: 1506.05869,2015

來自: CSDN

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!