騰訊AI Lab多篇研究論文入選三大國際頂級學術會議
1. CVPR(IEEE 國際計算機視覺與模式識別會議)
CVPR 是近十年來計算機視覺領域全球最有影響力、內容最全面的頂級學術會議,由全球最大的非營利性專業技術學會 IEEE(電氣和電子工程師協會)主辦。2017 谷歌學術指標(Google Scholar)按論文引用率排名, CVPR 位列計算機視覺領域榜首。今年 CVPR 審核了 2620 篇文章,最終收錄 783 篇,錄取率 29%,口頭報告錄取率僅 2.65%。
騰訊 AI Lab 計算機視覺總監劉威博士介紹到,「CVPR 的口頭報告一般是當年最前沿的研究課題,在學界和工業界都影響很大,每年都集齊如斯坦福大學和谷歌等全球最知名高校和科技公司。」
騰訊 AI Lab 六篇論文入選 CVPR
論文一:Real Time Neural Style Transfer for Videos
本文用深度前向卷積神經網絡探索視頻藝術風格的快速遷移,提出了一種全新兩幀協同訓練機制,能保持視頻時域一致性并消除閃爍跳動瑕疵,確保視頻風格遷移實時、高質、高效完成。
論文二:WSISA: Making Survival Prediction from Whole Slide Histopathological Images
論文首次提出一種全尺寸、無標注、基于病理圖片的病人生存有效預測方法 WSISA,在肺癌和腦癌兩類癌癥的三個不同數據庫上性能均超出基于小塊圖像方法,有力支持大數據時代的精準個性化醫療。
論文三:SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning
針對圖像描述生成任務,SCA-CNN 基于卷積網絡的多層特征來動態生成文本描述,進而建模文本生成過程中空間及通道上的注意力模型。
論文四:Deep Self-Taught Learning for Weakly Supervised Object Localization
本文提出依靠檢測器自身不斷改進訓練樣本質量,不斷增強檢測器性能的一種全新方法,破解弱監督目標檢測問題中訓練樣本質量低的瓶頸。
論文五:Diverse Image Annotation
本文提出了一種新的自動圖像標注目標,即用少量多樣性標簽表達盡量多的圖像信息,該目標充分利用標簽之間的語義關系,使得自動標注結果與人類標注更加接近。
論文六:Exploiting Symmetry and/or Manhattan Properties for 3D Object Structure Estimation from Single and Multiple Images
基于曼哈頓結構與對稱信息,文中提出了單張圖像三維重建及多張圖像 Structure from Motion 三維重建的新方法。
2. ACL(國際計算機語言協會年會)
ACL 是計算語言學里最重要的國際會議,今年是第 55 屆。會議涵蓋生物醫學、認知建模與心理語言學、交互式對話系統、機器翻譯等各個領域,今年有 194 篇長論文、107 篇短論文、21 個軟件演示及 21 篇主題演講。在 2017 谷歌學術指標(Google Scholar)按論文引用率排名, ACL 是計算機語言學和自然語言處理領域最高級別國際學術年會。
騰訊 AI Lab 副主任俞棟認為,「自然語言的理解、表達、生成和轉換一直是自然語言處理的核心問題。近年來有很多新的解決思路和方法。今年的 ACL 涉及自然語言處理的各方面,尤其在語義解析、語義角色標注、基于語義和語法的自然語言生成、機器翻譯和問答系統方向上都有一些有趣的工作。」
騰訊 AI Lab 主任張潼介紹到,「ACL 早期利用語法和規則分析自然語言,90 年代后,隨著以 LDC(Linguistic Data Consortium)為代表的自然語言數據集建立擴充,統計自然語言方法在計算語言學里作用越來越大并成為主流。2000 年后隨著互聯網高速發展及以自然語言為核心的人機交互方式興起,自然語言研究被賦予極高應用價值。」
騰訊 AI Lab 三篇文章入選 ACL
論文一:Modeling Source Syntax for Neural Machine Translation
本文提出將句法樹轉化為句法標簽序列的輕量級方法,有效將源端句法信息引入神經網絡翻譯系統,被證實能顯著提高翻譯效果。
論文二:Chunk-Based Bi-Scale Decoder for Neural Machine Translation
本文引入一個額外組塊神經網絡層,從組塊到詞的層次生成譯文,幫助實現神經網絡翻譯系統短語級別的建模,實驗表明該方法在多種語言上都能顯著提高翻譯效果。
論文三:Deep Pyramid Convolutional Neural Networks for Text Categorization
文章提出了一種能有效表達文本長距離關系的復雜度詞粒度 CNN。本文研究了如何加深詞粒度 CNN 對文本進行全局表達,并找到了一種簡單網絡結構,通過增加網絡深度提升準確度,但不過多增加計算量。實驗表明 15 層的 DPCNN 在六個情感和主題分類任務上達到了目前最佳結果。
3. ICML(國際機器學習大會)
機器學習是人工智能的核心技術,而 ICML 是機器學習最重要的兩個會議之一(另一個是 NIPS)。ICML 源于 1980 年在卡內基梅隆大學舉辦的機器學習研討會,現由國際機器學習學會(IMLS)主辦。2017 谷歌學術指標以「機器學習」關鍵詞排名,ICML 位列第一。
騰訊 AI Lab 主任張潼博士介紹到,「很多經典論文和算法,如 CRF,都是在 ICML 上首次提出的,這個會議涉及機器學習相關的所有研究,包括近年非常熱門的深度學習、優化算法、統計模型和圖模型等。在早期,ICML 更注重實驗和應用,而 NIPS 更注重模型和算法,但近年來兩個會議有些趨同。」
騰訊 AI Lab 四篇文章入選 ICML
論文一:Scaling Up Sparse Support Vector Machines by Simultaneous Feature and Sample Reduction
本文提出了第一個能在模型訓練開始前,同時檢測和去除稀疏支持向量機中不活躍樣本和特征的篩選算法,并從理論和實驗中證明其能不損失任何精度地把模型訓練效率提升數個量級。
論文二:GSOS: Gauss-Seidel Operator Splitting Algorithm for Multi-Term Nonsmooth Convex Composite Optimization
本文提出了求解多塊非光滑復合凸優化問題的算子分裂新算法,該算法采用 Gauss-Seidel 迭代以及算子分裂的技巧處理不可分的非光滑正則項,并以實驗證實了該算法的有效性。
論文三:Efficient Distributed Learning with Sparsity
本文提出了一個高維大數據中能更有效學習稀疏線性模型的分布式算法。在單個機器訓練樣本足夠多時,該算法只需一輪通信就能學習出統計最優誤差模型;即使單個機器樣本不足,學習統計最優誤差模型的通信代價只隨機器數量對數曲線上升,而不依賴于其他條件數。
論文四:Projection-free Distributed Online Learning in Networks
本文提出了去中心化的分布式在線條件梯度算法。該算法將條件梯度的免投影特性推廣到分布式在線場景,解決了傳統算法需要復雜的投影操作問題,能高效處理去中心化的流式數據。
此外,我們還受邀參加以下三個會議:8 月 7 日-11 日東京舉辦的 SIGIR(國際計算機協會信息檢索大會),入選論文 3 篇。8 月 19 日-25 日墨爾本舉辦的 IJCAI(國際人工智能聯合會議),入選論文 6 篇。及 9 月 7 日-11 日哥本哈根舉辦的 EMNLP(自然語言處理實證方法會議),入選論文 7 篇。
來自: 騰訊科技