你的數據根本不夠大,別老扯什么Hadoop了
</span>本文原名“Don’t use Hadoop when your data isn’t that big ”,出自有著多年從業經驗的數據科學家Chris Stucchio,紐約大學柯朗研究所博士后,搞過高頻交易平臺,當過創業公司的CTO,更習慣稱自己為統計學者。對了,他現在自己創業,提供數據分析、推薦優化咨詢服務,他的郵件是:stucchio@gmail.com 。
他們又問我,“你能使用Hadoop做簡單的group by(分組)和sum(統計)嗎?”我說當然可以,但我會說需要看具體的文件格式。
- collection.flatMap( (k,v) => F(k,v) ).groupBy( _._1 ).map( _.reduce( (k,v) => G(k,v) ) )
- SELECT G(...) FROM table GROUP BY F(...)
- 目標:統計計算圖書館書籍的數量
- Map:你統計奇數書架上書的數量,我統計偶數書架上書的數量。(做統計的人越多,統計出結果越快,就是機器越多,效率越高)
- Reduce:把我們每個人單獨統計的結果數據加在一起。
在Hadoop里,所有計算都必須按照一個map、一個group by、一個aggregate或者這種計算序列來寫。這和穿上緊身衣一樣,多憋得慌啊。許多計算用其他模型其實更適合。穿上緊身衣(使用hadoop)的唯一原因就是,可以擴展到極大的數據集。可大多數情況,你的數據集很可能根本遠遠夠不上那個數量級。
可是呢,因為Hadoop和大數據是熱詞,世界有一半的人都想穿上緊身衣,即使他們實際不需要Hadoop。
對于Excel來說的“很大的數據”并非大數據,其實還有其它極好的工具可以使用——我喜歡的是基于Numpy庫之上Pandas。它可以將幾百MB數據以高效的向量化格式加載到內存,在我購買已3年的筆記本上,一眨眼的功夫,Numpy就能完成1億次浮點計算。Matlab和R也是極好的工具。
因此,對于幾百兆的數據量,典型的做法是寫一個簡單的Python腳本逐行讀取,處理,然后寫到了一個文件就行了
二、可我的數據是10GB呢?
我買了臺新筆記本,它有16GB的內存(花$141.98)和256GB的SSD(額外200美元)。,如果在Pandas里加載一個10GB的csv文件,實際在內存里并沒有那么大(內存不是占有10G)——可以將 “17284932583” 這樣的數值串存為4位或者8位整數,“284572452.2435723”存為8位雙精度。
三、可我的數據是100GB、500GB或1TB呢?
四、Hadoop << SQL或Python腳本
在計算的表達能力來說,Hadoop比SQL差。Hadoop里能寫的計算,在SQL或者簡單的Python腳本都可以更輕松地寫出來。
SQL是一個直觀的查詢語言,適合做業務分析,業務分析師和程序員都很常用。SQL查詢非常簡單,而且還非常快——只有數據庫使用了正確的索引,要花幾秒鐘的sql查詢都不太常見。
五、我的數據超過了5TB
只能使用Hadoop,而無需做過多的選擇。
你的命可真苦——只能苦逼地折騰Hadoop了,沒有太多其他選擇(可能還能用許多硬盤容量的高富帥機器來扛),而且其他選擇往往貴得要命(腦海中浮現出IOE等等字樣……)。
用Hadoop唯一的好處是擴展。如果你的數據是一個數TB的單表,那么全表掃描是Hadoop的強項。此外的話(如果你沒有這樣大數據量的表),請關愛生命,盡量遠離Hadoop。它帶來的煩惱根本不值,用傳統方法既省時又省力。
六、Hadoop是一個極好的工具我并不討厭Hadoop,當我用其它工具不能很好處理數據時我會選擇Hadoop。另外,我推薦使用Scalding,不要使用Hive或Pig。Scalding支持使用Scala語言來編寫Hadoop任務鏈,隱藏了其下的MapReduce。