AI背后的數據科學

LeiStrunk 7年前發布 | 12K 次閱讀 數據科學 神經網絡 AI

對于那些對AI感興趣但還沒有深入研究的傳統數據科學家,下面是對數據科學技術的簡要概述,這些數據科學技術在通俗報紙中被稱為人工智能(AI)。

Data Science Central與其他人已經撰寫了相當多的關于構成AI的各種類型的數據科學的文章。但是Bill Vorhies仍然聽到很多人詢問關于AI的問題,好像它就是單一的實體。他表示,不是這樣的。AI是一個數據科學技術的集合,在這一點上,開發甚至都沒有特別好地集成,或易于使用。然而,在這些領域中,他們仍然取得了很大的進步,并受到了大眾媒體的關注。

這篇文章并不是一個深入的研究,而是進行粗略的介紹,以便你了解這領域的研究進展和發展趨勢。如果你是一位傳統數據科學家,讀過一些文章,但仍然沒有把這些拼圖拼起來建立全面的認識,你可能會發現這是一種整合你當前的知識,甚至發現你想關注哪個目標并致力于此的方式。

以下是正文。

AI只是數據科學部件的總和

構成AI的數據科學“部件”分為以下幾類。這里有所重疊,但都是詳細的主題,你會在媒體上看到。

  • 深度學習
  • 自然語言處理
  • 圖像識別
  • 強化學習
  • 問答機
  • 對抗性訓練
  • 機器人

這些都是獨立的學科(好吧,深度學習的類別實際上還包含一些其他)。AI只是這些部件的總和。它們只是由一大批創業公司和主要參與者創造的一些真正奇妙的應用非常松散地結合在一起。當它們一起工作時,例如Watson、或Echo/Alexa、或者在使用自駕車,那么它們應該可以超過組成它們的部分的總和,然而情況并非如此。如何集成這些不同技術仍然是最大的挑戰之一。

我們的AI必須做什么?

當向初學者解釋這一點時,我總是認為,從AI需要具備什么類似人類能力的擬人化描述開始的話,還是有所幫助的。

  • 觀看: 這是定格畫面和視頻圖像的識別。
  • 聽取: 通過文本或口頭語言接收輸入。
  • 說話: 以相同的語言或甚至外語有意義地響應我們的輸入。
  • 像人類一樣做出決定: 提供建議或新知識。
  • 學習: 根據其環境中的更改來改變其行為。
  • 移動: 以及操作物理對象。

您可以立即開始看到,當今新興的AI許多商業應用,只有這些能力中的一部分。但我們期待的是,未來有更復雜的應用能具備幾乎所有這些能力。

今天出現的許多AI的商業應用程序只需要這些功能中的一些。但是我們期待的更復雜的應用程序將需要幾乎所有這些。

將人類能力轉換為數據科學

這里確實有點凌亂。這些能力中的,每個不一定與其基礎數據科學一一對應。但是,要真正了解現今AI正在發生著什么,理解數據科學如何與這些要求相匹配是最重要的。作為一張圖解,它們的匹配或多或少像這樣的:

深度學習發生了什么?

您可能已經注意到,我們的圖表中缺少“深度學習”。這是因為它是上面講到的遞歸神經網絡和卷積神經網絡的匯總類別。人工神經網絡(ANNs)是自80年代以來的最高水平,并且一直是用于解決標準分類和回歸問題的標準數據科學機器學習工具包的一部分。

最近發生的事情是,我們大量增加并行處理,使用GPU(圖形處理單元)而不是傳統的英特爾芯片,允許我們實驗的ANN有幾十個甚至超過一百個隱藏層的版本。這些隱藏層就是我們為什么將這些類型成為“深度”的原因,因此也就成了“深度學習”的說法。添加隱藏層意味著乘法計算的復雜性,這就是為何我們不得不等待硬件趕上我們的雄心。

至少有27種不同類型的ANN,但最重要的是卷積神經網絡(CNN)和遞歸神經網絡(RNN),沒有它們,圖像識別和自然語言處理將是不可能的任務。

數據科學的簡要討論

要公正對待這些基礎數據科學技術,就需要閱讀多篇文章。在本文中,我們將給你最簡略描述,以及一些能查看更為完整信息的鏈接。

卷積神經網絡(CNN):CNN是所有類型的圖像和視頻識別、面部識別、圖像標記的核心,并可在幫助自動駕駛在行人中識別停車標志。它們非常復雜,難以訓練,而你不需要指定具體的功能(像貓有毛皮、尾巴、四條腿等那樣),你需要在一個CNN上按字面意思展示數百萬貓科的示例就可以成功。海量的訓練數據是一個巨大的障礙。

遞歸神經網絡(遞歸):RNN是自然語言處理(NLP)的中心,也是游戲和類似的邏輯問題的中心。與CNN不同,它們將信息處理為時間序列,其中每個隨后的數據片段在某種程度上依賴于之前的片段。它可能不明顯,但語言屬于此類別,因為下一個字符或下一個字在邏輯上與前一個字符相關。RNN可以工作在字符、字或甚至長段級別,這使得它們能夠完美提供可預期的長篇回答您的客戶服務問題。RNN處理文本問題的理解以及形成復雜的響應,包括翻譯成外語。計算機能夠贏得國際象棋和圍棋,RNN功不可沒。

生成式對抗神經網絡(GANN):CNN和RNN都受到同樣問題的困惑,即需要龐大的、繁重的數據量以便訓練,要么識別停車標志(圖像),要么了解如何回答您關于如何打開該帳戶(語音和文本)的問題。GANN能夠保證顯著減少訓練數據并提高精度。他們通過互相較量。 這里有一個好故事 ,關于訓練卷積神經網來識別假法國印象派的藝術贗品。簡而言之,一個CNN被真正的法國印象派畫作來訓練,所以它應該認識真品。其他對抗性CNN,稱為生成式對抗神經網絡,實際上被賦予創造印象派繪畫贗品的任務。

CNN通過將像素值轉換為復雜的數值向量來執行圖像識別的任務。如果你向后運行它們,那就是從隨機數值向量開始,它們可以創建一個圖像。在這種情況下,NN生成贗品創造圖像,試圖欺騙嘗試學習如何檢測贗品的CNN。他們互相較量,直到生成器(贗品制造者)產生的圖像如此完美,以至于CNN無法將它們從原件和已經扳平的兩個對抗網絡區分出來。同時,設計用于確定來自贗品的原件的CNN已經在檢測贗品方面進行了極好的培訓,而沒有對數百萬偽造的法國印象派大師進行訓練這一不切實際的要求。總之,它們就是從其所在的環境中學習。

問答機(QAM):QAM,是我們為像IBM的Watson之類起的一個相當不起眼的名字。這些都是海量知識庫,經過訓練,可以在其知識庫中找到獨特關聯,并為它們以前從未見過的復雜問題提供答案。當普通搜索返回您潛在答案的列表時,QAM必須返回單一的最佳答案。

這是一個NLP和復雜搜索的混搭,其中QAM構建關于問題的可能含義的多個假設,并且基于加權證據算法返回最佳響應。

QAM需要人類加載大量關于需要研究的主題的數據,并且人類必須訓練并維護知識庫。然而,一旦建立完成,它們已被證明是在癌癥檢測(與CNNs結合)領域的專家、醫學診斷、發現材料和化學品的獨特組合,甚至教高中學生如何編程。總之,無論有大量的知識需要專家解釋,QAM可以是大腦或至少是我們AI的關聯記憶。

強化學習系統(RLS)

RLS是一種訓練系統以識別對其環境直接響應的最佳結果的方法。這里沒有單一的算法,而是一組定制應用程序。 RNN可以用作RLS中的一種類型的“代理”。RLS是自駕車和類似設備的核心技術,不需要語言界面。本質上,這是機器可以從中學習并記住在特定情況下采取的最佳行動的方法。當你的自駕車決定黃燈亮起時停車,而不是通過,一個RLS被用來創造學習的行為。

機器人

機器人領域對于AI是重要的,因為它是AI數據科學在現實世界中顯現的主要方式。大多數機器人是簡單和非常復雜的工程。機器人技術背后的AI主要是強化學習。

脈沖神經網絡(又名神經擬態計算)

通常,我們第二代AI主要是基于硬件進步,使我們能夠使用算法,如在以前根本不可行的神經網絡。但所有這一切都在迅速發展,我們正處于進入第三代AI的前沿。

第三代AI將基于脈沖神經網絡,也稱為神經擬態計算,因為它試圖更密切地模仿人類大腦實際工作的方式。改變的核心是圍繞這樣的事實:腦神經元不經常彼此通信,而是在信號的峰值。挑戰是找出一個消息在這個電子脈沖應該如何編碼。

到目前為止,研究尚處于中期階段。我只知道它在商業應用的兩個實例。可能有更多的秘密應用仍然不為人知。很多投資和科研工作者涌入這一新世界。它還需要一種全新類型的芯片,這將意味著另一場硬件革命。

當這一天來臨時,我們有如下的期望:

  1. 它們可以從一個來源學習,并應用到另一個。它們可以對其所在的環境進行概括。
  2. 它們可以記住。任務一旦學會,可以回憶并能應用于其他數據。
  3. 它們更節能,開辟了一條小型化的道路。
  4. 它們從自己的環境中學習,沒有監督,只有很少的例子或觀察。這些使它們能夠進行快速學習。

跟上AI的發展

跟隨這些技術和這兩個趨勢來與AI俱進:

  1. AI的商業化,目前由于它(第二代)的存在,使得一切實際上幾乎和專業一樣快速,而且大量初創公司涌入這一市場。有可能會像美國在20世紀20年代的電氣化一樣普遍。
  2. 注意脈沖神經網絡的進步,使這一切都更令人驚嘆。

 

 

來自:http://www.infoq.com/cn/articles/the-data-science-behind-ai

 

 本文由用戶 LeiStrunk 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!