非死book開源基于Torch的一組深度學習插件

jopen 9年前發布 | 15K 次閱讀 Torch

原文  http://www.infoq.com/cn/news/2015/01/非死book-open-source-torch

深度學習是機器學習研究中的一個新的領域,它能夠模仿人腦的機制來解釋數據。近日,非死book人工智能研究院(FAIR)宣布 開源 了一組深度學習工具,這些工具主要是針對 Torch 機器學習框架的插件,包括 iTorchfbcunnfbnnfbcudafblualib 。這些插件能夠在很大程度上提升神經網絡的性能,并可用于計算機視覺和自然語言處理(NLP)等場景。目前,Torch已被Google、推ter、Intel、AMD、NVIDIA等公司采用。

其中的fbcunn包含了非死book用于GPU的高度工程化深度學習模塊,該模塊可用來加快深度學習的速度。fbcunn對對像識別、自然語言的處理以及其他大規模的深度學習系統(如卷積神經網絡)有很大的幫助。

本次開源的內容包括用于大型卷積網(ConvNets)的GPU優化模塊、在自然語言處理領域常用的網絡。其中的ConvNets模塊包括一個快 速的基于FFT的卷積層,采用基于NVIDIA的cuFFT庫構建的自定義CUDA內核。除此之外,還包括許多其他基于CUDA的模塊和容器 (container)。本次發布的最重要部分包括基于FFT的卷積層代碼,非死book已經花了相當大的工程努力提高GPU卷積層。這項工作已達到 目前公布的最快代碼的23.5倍,如下圖所示是13x13內核情況:

非死book開源基于Torch的一組深度學習插件

該熱力圖顯示了采用非死book的ConvolutionFFT相對于采用NVIDIA的CuDNN完成一個訓練的相對速度,紅色代表 非死book慢,綠色代表非死book更快,顏色增強代表加速的幅度。對于小尺寸的內核(3×3),增速適中,最高速度比CuDNN快1.84 倍;對于較大尺寸的內核,從(5×5)開始,增速相當可觀;更大尺寸的內核(13x13),最高速度為比CuDNN快23.5倍,更多的技術細節,讀者還 可以閱讀在Arxiv上發表的 一篇論文

深度學習算法是讓機器擁有智能的最佳途徑,非死book開源的這些學習工具將會推動深度學習算法的普及并降低相關應用的門檻,從而使得模式識別、神經 網絡等變得更加簡單。除了非死book開源的這些學習工具外,讀者還可以閱讀下InfoWorld公布值得大家參考學習的 機器學習領域11個最受歡迎的開源項目

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!