一篇文章讀懂大數據的黃色小象幫手––Hadoop

jopen 9年前發布 | 26K 次閱讀 Hadoop 分布式/云計算/大數據

原文  http://www.thebigdata.cn/Hadoop/13701.html


繼云計算之后,大數據(Big Data)接棒成為最熱門的科技潮字,和大數據有關的技術和科技接二連三成為科技圈注目的焦點。如果你也關注云端跟大數據的資訊,Hadoop 這個字出現頻率一定挺高的,這個黃色小象 Logo 也應該經常亮相。

一篇文章讀懂大數據的黃色小象幫手––Hadoop

究竟 Hadoop 是什么?能夠用來解決什么問題?又為什么重要?比起解釋一大堆技術上的細節,倒不如把重點放在 Hadoop 處理巨量資料的角度切入了解,看 Hadoop 能夠帶來什么好處,同時也從這個方向反過來理解大數據。

Hadoop 簡史:黃色小象的由來

Hadoop 的雛形 Nutch 最初是由 Doug Cutting 和 Mike Cafarella 針對網頁相關的資料搜尋而開發,2006 年 Doug Cutting 進入 Yahoo 后成立了專業的團隊繼續研究發展這項技術,正式命名為 Hadoop。

Hadoop 這個名稱并不代表任何英文字匯或者縮寫代號,「Hadoop」來自于 Doug Cutting 兒子的一個黃色大象填充玩具1,主要塬因是開發過程中他需要為這套軟體提供一個代號方便溝通,而 Hadoop 這個名字發音簡單拼字容易,而且毫無意義、也沒有在任何地方使用過,因此雀屏中選,黃色小象也因而成為 Hadoop 的標誌。

值得一提的是,在 Hadoop 之后所發展的幾個相關軟件和模組也都參考了這樣的命名方式,名稱不會與主要功能實際相關,而是採用與大象或其他動物有關的名稱作為其開發代號,像是 Pig、Hive、ZooKeeper 等等。

一篇文章讀懂大數據的黃色小象幫手––Hadoop

什么是 Hadoop?

首先,想像有個檔案大小超過 PC 能夠儲存的容量,那便無法儲存在你的電腦裡,對吧?

Hadoop 不但讓你儲存超過一個伺服器所能容納的超大檔案,還能同時儲存、處理、分析幾千幾萬份這種超大檔案,所以每每提到大數據,便會提到 Hadoop 這套技術。

簡單來說,Hadoop 是一個能夠儲存并管理大量資料的云端平臺,為 Apache 軟體基金會底下的一個開放塬始碼、社群基礎、而且完全免費的軟體,被各種組織和產業廣為採用,非常受歡迎。

然而要懂 Hadoop,你必須先了解它最主要的兩項功能:

Hadoop 如何儲存資料(Store)

Hadoop 怎么處理資料(Process)

分散式檔案系統 HDFS

Hadoop 是一個叢集系統(cluster system),也就是由單一伺服器擴充到數以千計的機器,整合應用起來像是一臺超級電腦。而資料存放在這個叢集中的方式則是採用 HDFS 分散式檔案系統(Hadoop Distributed File System)。

HDFS 的設計概念是這樣的,叢集系統中有數以千計的節點用來存放資料,如果把一份檔案想成一份藏寶圖,機器中會有一個機器老大(Master Node)跟其他機器小弟(Slave/Worker Node),為了妥善保管藏寶圖,先將它分割成數小塊(block),通常每小塊的大小是 64 MB,而且把每小塊拷貝成叁份(Data replication),再將這些小塊分散給小弟們保管。機器小弟們用「DataNode」這個程式來放藏寶圖,機器老大則用「NameNode」這個 程式來監視所有小弟們藏寶圖的存放狀態。

如果老大的程式 NameNode 發現有哪個 DataNode 上的藏寶圖遺失或遭到損壞(例如某位小弟不幸陣亡,順帶藏寶圖也丟了),就會尋找其他 DataNode 上的副本(Replica)進行復製,保持每小塊的藏寶圖在整個系統都有叁份的狀態,這樣便萬無一失。

一篇文章讀懂大數據的黃色小象幫手––Hadoop

透過 HDFS,Hadoop 能夠儲存上看 TB(Tera Bytes)甚至 PB(Peta Bytes)等級的巨量資料,也不用擔心單一檔案的大小超過一個磁碟區的大小,而且也不用擔心某個機器損壞導致資料遺失。

來看看 Yahoo 的 Hadoop cluster 系統:

一篇文章讀懂大數據的黃色小象幫手––Hadoop

MapReduce 平行運算架構

上一段提到,HDFS 將資料分散儲存在 Hadoop 電腦叢集中的數個機器裡,現在我們要談談 Hadoop 如何用 MapReduce 這套技術處理這些節點上的資料。

在函數程式設計(Functional programming)3中很早就有了 Map(映射)和 Reduce(歸納)的觀念,類似于演算法中個別擊破(Divide and Conquer)的作法,也就是將問題分解成很多個小問題之后再做總和。

MapReduce 顧名思義是以 Map 跟 Reduce 為基礎的應用程式。一般我們進行資料分析處理時,是將整個檔案丟進程式軟體中做運算出結果,而面對巨量資料時,Hadoop 的做法是採用分散式計算的技術處理各節點上的資料。

在各個節點上處理資料片段,把工作分散、分佈出去的這個階段叫做 Mapping;接下來把各節點運算出的結果直接傳送回來歸納整合,這個階段就叫做 Reducing。這樣多管齊下、在上千臺機器上平行處理巨量資料,可以大大節省資料處理的時間。

黃色小象以及小象的朋友們

總和來看,Hadoop 透過 HDFS 和 MapReduce 這兩項核心功能,解決了檔案存放的問題、解決了系統擴張的問題、解決了系統備份的問題、解決了資料處理的問題,非常適合應用于大數據儲存和大數據分析,因此被廣泛接受成為大數據的主流技術。

當然 Hadoop 并沒有解決所有巨量資料帶來的難題,所以許多與 Hadoop 相關的技術被開發來應付巨量資料的其他需求4。像是用來處理資料的 Script 語言「Pig」、類似 SQL 語法查詢功能的「Hive」、專門用在 Hadoop 上的資料庫系統「HBase」等。

Hadoop 生態系:

一篇文章讀懂大數據的黃色小象幫手––Hadoop

對 Hadoop 有初步的認識后,如果想進一步學習相關的大數據技術,可以參考《成為大數據時代的精英學子:Big Data 的推薦好課!》一文,其中列出了許多線上的 Hadoop 推薦好課。

</div>

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!