Python機器學習工具:Scikit-Learn介紹與實踐

gr0328 7年前發布 | 28K 次閱讀 Python 機器學習 scikit-learn

Scikit-learn 簡介

官方的解釋很簡單: Machine Learning in Python, 用python來玩機器學習。

什么是機器學習

機器學習關注的是: 計算機程序如何隨著經驗積累自動提高性能。而最大的吸引力在于,不需要寫任何與問題相關的特定代碼,泛型算法就能告訴你一些關于數據的秘密。

Scikit-learn的優點

  • 構建于現有的NumPy(基礎n維數組包),SciPy(科學計算基礎包), matplotlib(全面的2D/3D畫圖),IPython(加強的交互解釋器),Sympy(Symbolic mathematics), Pandas(數據結構和分析)之上,做了易用性的封裝。

  • 簡單且高效的數據挖掘、數據分析的工具。

  • 對所有人開放,且在很多場景易于復用。

  • BSD證書下開源。

Scikit-learn的生態

Python

python是一門簡單易學的語言,語法要素不多,對于只關心機器學習本身非軟件開發的人員,python語言層面的東西基本是不需要關心的。

Jupyter

http://nbviewer.jupyter.org/ 提供了一種便利的方式去共享自己或是別人的計算成果,以一種之前單單共享代碼不同的交互的方式,scikit-learn官網上面大量的例子也是以這種方式展示,使用者不僅看到了代碼的使用方式,還看到了代碼的結果,如果自己搭建了jupyter server的話,導入notebook還可以直接在瀏覽器中在其中上下文任意處修改,大大增加了學習效率。

Scikit-learn 的主要內容

Scikit-learn的算法地圖

按照上圖 scikit-learn提供的主要功能主要關注與數據建模,而非加載、操作、總結數據, 這些任務可能NumPy、Pandas就已經足夠了。為此scikit-learn 主要提供了以下功能:

  • 測試數據集,sklearn.datasets模塊提供了乳腺癌、kddcup 99、iris、加州房價等諸多開源的數據集

  • 降維(Dimensionality Reduction): 為了特征篩選、統計可視化來減少屬性的數量。

  • 特征提取(Feature extraction): 定義文件或者圖片中的屬性。

  • 特征篩選(Feature selection): 為了建立監督學習模型而識別出有真實關系的屬性。

  • 按算法功能分類,分為監督學習:分類(classification)和回歸(regression),以及非監督學習:聚類(clustering)。

  • 聚類(Clustring): 使用KMeans之類的算法去給未標記的數據分類。

  • 交叉驗證(Cross Validation): 去評估監督學習模型的性能。

  • 參數調優(Parameter Tuning): 去調整監督學習模型的參數以獲得最大效果。

  • 流型計算(Manifold Learning): 去統計和描繪多維度的數據

常用算法的大致介紹

分類 Classification

  • 適用范圍: 用作訓練預測已經標記的數據集的類別. 監督學習的代表。

  • 常用算法對比

文章測試了179種分類模型在UCI所有的121個數據上的性能,發現Random Forests 和 SVM 性能最好。

回歸 Regression

  • 適用范圍:

回歸是用于估計兩種變量之間關系的統計過程,回歸分析可以幫助我們理解當任意一個自變量變化,另一個自變量不變時,因變量變化的典型值。最常見的是,回歸分析能在給定自變量的條件下估計出因變量的條件期望。 (舉個例子,在二維的坐標系中,根據已有的坐標點去推導x、y軸的函數關系,既一元n次方程。)

  • 常用算法對比:

優點:直接、快速;知名度高

缺點:要求嚴格的假設;需要處理異常值

集成算法 Ensemble Algorithms

上圖是單獨用決策樹來做回歸任務去預測數據,但是反映了決策樹雖然易于解釋理解之外會有一些預測上的缺點,總結而言是趨向過擬合,可能或陷于局部最小值中、沒有在線學習,所以 下圖 引入了AdaBoost 集成算法來增加預測的可靠性,由此引出了集成算法的優點:

  • 集成方法是由多個較弱的模型集成模型組,其中的模型可以單獨進行訓練,并且它們的預測能以某種方式結合起來去做出一個總體預測。

  • 當先最先進的預測幾乎都使用了算法集成。它比使用單個模型預測出來的結果要精確的多。

但是如何找出可結合的弱模型、以及結合的方式又稱為了繁重的維護工作。

聚類 Clustering

  • 適用范圍:

是在沒有標記的情況下去分類數據,使數據變得有意義, 如果已知分類分類的個數,Kmeans算法會更容易得出效果。

  • 常用算法對比:

該圖中顏色是聚類的結果,而非標記, 各算法的分類結果都可以根據輸入參數調優,只是為了展示聚類的適用范圍適合有特征的數據類型,對于最下一行的幾乎均勻的數據幾乎沒有任何意義。

Scikit-learn進行計算的主要步驟

  • 數據獲取、預處理。

  • 可選的降維過程.因為原始數據的維度比較大, 所以需要先找出真正跟預測目標相關的屬性。

  • 學習以及預測的過程。

  • 反復學習的過程。增加樣本、調優參數、換算法各種方式去提供預測的準確率。

Scikit-learn 的簡單使用示例

決策樹示例:

from sklearn import datasets
from sklearn import metrics
from sklearn.tree import DecisionTreeClassifier
# 讀取 iris 數據集
dataset = datasets.load_iris()
# 采用CART模型
model = DecisionTreeClassifier()
model.fit(dataset.data, dataset.target)
print(model)
# 預測
expected = dataset.target
predicted = model.predict(dataset.data)
# 統計
print(metrics.classification_report(expected, predicted))
print(metrics.confusion_matrix(expected, predicted))

輸出:

precision    recall  f1-score   support

    0       1.00      1.00      1.00        50
    1       1.00      1.00      1.00        50
    2       1.00      1.00      1.00        50

    avg / total       1.00      1.00      1.00       150

    [[50  0  0]
    [ 0 50  0]
    [ 0  0 50]]

引用

 

 

來自:https://segmentfault.com/a/1190000008764845

 

 本文由用戶 gr0328 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!