阿里達摩院公布自研語音識別模型DFSMN并宣布開源
近日,阿里巴巴達摩院機器智能實驗室推出了新一代語音識別模型 DFSMN,將全球語音識別準確率紀錄提高至 96.04%(這一數據測試基于世界最大的免費語音識別數據庫 LibriSpeech)。
達摩院機器智能實驗室的語音識別團隊主導了這個模型的研發,并宣布向全世界企業與個人開源。對比目前業界使用最為廣泛的 LSTM 模型,DFSMN 模型訓練速度更快、識別準確率更高。采用全新 DFSMN 模型的智能音響或智能家居設備,相比前代技術深度學習訓練速度提到了 3 倍,語音識別速度提高了 2 倍。
圖:阿里在 GitHub 平臺上開源了自主研發的 DFSMN 語音識別模型
在近期舉行的云棲大會武漢峰會上,裝有 DFSMN 語音識別模型的“AI 收銀員”在與真人店員的 PK 中,在嘈雜環境下準確識別了用戶的語音點單,在短短 49 秒內點了 34 杯咖啡。此外,裝備這一語音識別技術的自動售票機也已在上海地鐵“上崗”。
著名語音識別專家,西北工業大學教授謝磊表示:“阿里此次開源的 DFSMN 模型,在語音識別準確率上的穩定提升是突破性的。是近年來深度學習在語音識別領域最具代表性的成果之一。對全球學術界和 AI 技術應用都有巨大影響。”有業內人士稱,DFSMN 有望成為繼傳統的 LSTM 模型后,成為全球語音識別領域最主要的聲學識別模型之一。
來自: 網易科技
本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!