K-Means 算法

jopen 12年前發布 | 47K 次閱讀 算法

  最近在學習一些數據挖掘的算法,看到了這個算法,也許這個算法對你來說很簡單,但對我來說,我是一個初學者,我在網上翻看了很多資料,發現中文社區沒有把這個問題講得很全面很清楚的文章,所以,把我的學習筆記記錄下來,分享給大家。

  在數據挖掘中, k-Means 算法是一種 cluster analysis 的算法,其主要是來計算數據聚集的算法,主要通過不斷地取離種子點最近均值的算法。

  問題

  K-Means 算法主要解決的問題如下圖所示。我們可以看到,在圖的左邊有一些點,我們用肉眼可以看出來有四個點群,但是我們怎么通過計算機程序找出這幾個點群來呢?于是就出現了我們的K-Means 算法(Wikipedia 鏈接

K-Means 要解決的問題

  算法概要

  這個算法其實很簡單,如下圖所示:

K-Means 算法概要

K-Means 算法概要

  從上圖中,我們可以看到,A, B, C, D, E 是五個在圖中點。而灰色的點是我們的種子點,也就是我們用來找點群的點。有兩個種子點,所以K=2。

  然后,K-Means 的算法如下:

  1. 隨機在圖中取K(這里K=2)個種子點。
  2. 然后對圖中的所有點求到這K個種子點的距離,假如點 Pi 離種子點 Si 最近,那么 Pi 屬于 Si 點群。(上圖中,我們可以看到A,B屬于上面的種子點,C,D,E屬于下面中部的種子點)
  3. 接下來,我們要移動種子點到屬于他的“點群”的中心。(見圖上的第三步)
  4. 然后重復第2)和第3)步,直到,種子點沒有移動(我們可以看到圖中的第四步上面的種子點聚合了A,B,C,下面的種子點聚合了D,E)。
  5. </ol>

      這個算法很簡單,但是有些細節我要提一下,求距離的公式我不說了,大家有初中畢業水平的人都應該知道怎么算的。我重點想說一下“求點群中心的算法”

      求點群中心的算法

      一般來說,求點群中心點的算法你可以很簡的使用各個點的X/Y坐標的平均值。不過,我這里想告訴大家另三個求中心點的的公式:

      1)Minkowski Distance 公式 —— λ 可以隨意取值,可以是負數,也可以是正數,或是無窮大。

      2)Euclidean Distance 公式 —— 也就是第一個公式 λ=2 的情況

      3)CityBlock Distance 公式 —— 也就是第一個公式 λ=1 的情況

      這三個公式的求中心點有一些不一樣的地方,我們看下圖(對于第一個 λ 在 0-1之間)。

         

      (1)Minkowski Distance     (2)Euclidean Distance    (3) CityBlock Distance

      上面這幾個圖的大意是他們是怎么個逼近中心的,第一個圖以星形的方式,第二個圖以同心圓的方式,第三個圖以菱形的方式。

      K-Means 的演示

      如果你以”K Means Demo“為關鍵字到 Google 里查你可以查到很多演示。這里推薦一個演示

      http://home.dei.polimi.it/matteucc/Clustering/tutorial_html/AppletKM.html

      操作是,鼠標左鍵是初始化點,右鍵初始化“種子點”,然后勾選“Show History”可以看到一步一步的迭代。

      注:這個演示的鏈接也有一個不錯的 K Means Tutorial

      K-Means ++ 算法

      K-Means 主要有兩個最重大的缺陷——都和初始值有關:

    •  K 是事先給定的,這個 K 值的選定是非常難以估計的。很多時候,事先并不知道給定的數據集應該分成多少個類別才最合適。( ISODATA 算法通過類的自動合并和分裂,得到較為合理的類型數目 K)
    • </ul>

      • K-Means 算法需要用初始隨機種子點來搞,這個隨機種子點太重要,不同的隨機種子點會有得到完全不同的結果。(K-Means++算法可以用來解決這個問題,其可以有效地選擇初始點)
      • </ul>

          我在這里重點說一下 K-Means++算法步驟:

        1. 先從我們的數據庫隨機挑個隨機點當“種子點”。
        2. 對于每個點,我們都計算其和最近的一個“種子點”的距離D(x)并保存在一個數組里,然后把這些距離加起來得到 Sum (D(x))。
        3. 然后,再取一個隨機值,用權重的方式來取計算下一個“種子點”。這個算法的實現是,先取一個能落在 Sum (D(x))中的隨機值 Random,然后用 Random -= D(x),直到其<=0,此時的點就是下一個“種子點”。
        4. 重復第(2)和第(3)步直到所有的K個種子點都被選出來。
        5. 進行K-Means 算法。
        6. </ol>

            相關的代碼你可以在這里找到“implement the K-means++ algorithm”(墻) 另,Apache 的通用數據學庫也實現了這一算法

            K-Means 算法應用

            看到這里,你會說,K-Means 算法看來很簡單,而且好像就是在玩坐標點,沒什么真實用處。而且,這個算法缺陷很多,還不如人工呢。是的,前面的例子只是玩二維坐標點,的確沒什么意思。但是你想一下下面的幾個問題:

            1)如果不是二維的,是多維的,如 5 維的,那么,就只能用計算機來計算了。

            2)二維坐標點的X, Y 坐標,其實是一種向量,是一種數學抽象。現實世界中很多屬性是可以抽象成向量的,比如,我們的年齡,我們的喜好,我們的商品,等等,能抽象成向量的目的就是可以讓計算機知道某兩個屬性間的距離。如:我們認為,18歲的人離 24 歲的人的距離要比離 12 歲的距離要近,鞋子這個商品離衣服這個商品的距離要比電腦要近,等等。

            只要能把現實世界的物體的屬性抽象成向量,就可以用K-Means 算法來歸類了

            在 《k均值聚類(K-means)》 這篇文章中舉了一個很不錯的應用例子,作者用亞洲 15 支足球隊的 2005 年到 1010 年的戰績做了一個向量表,然后用K-Means 把球隊歸類,得出了下面的結果,呵呵。

          • 亞洲一流:日本,韓國,伊朗,沙特
          • 亞洲二流:烏茲別克斯坦,巴林,朝鮮
          • 亞洲三流:中國,伊拉克,卡塔爾,阿聯酋,泰國,越南,阿曼,印尼
          • </ul>

              其實,這樣的業務例子還有很多,比如,分析一個公司的客戶分類,這樣可以對不同的客戶使用不同的商業策略,或是電子商務中分析商品相似度,歸類商品,從而可以使用一些不同的銷售策略,等等。

              最后給一個挺好的算法的幻燈片:http://www.cs.cmu.edu/~guestrin/Class/10701-S07/Slides/clustering.pdf

            來自: coolshell.cn
 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!