大數據處理一定需要Hadoop嗎?

dy223 9年前發布 | 13K 次閱讀 大數據

原文  http://www.thebigdata.cn/YeJieDongTai/13818.html


大數據處理一定需要Hadoop嗎?

Google強大的搜尋引擎每天處理龐大的搜尋數據,靠的是數十萬的伺服器同時作工。然而一般企業并無法使用Google所用的內部搜尋引擎工具,所以,擁有處理大數據工具的分散式運算平臺Hadoop應運而生。

但問題是Hadoop使用上有難度,數據處理公司Cloudera決心要解決這個問題。

過去的公司企業仰賴傳統的關聯式資料庫和數據倉儲就可應付所需,然而,今日電子商務、社交媒體和行動運算不斷成長使得資料量暴增,許多企業便開 始使用Hadoop等的工具處理數據。現在,Cloudera現在更針對Hadoop平臺推出類Google的搜尋引擎:Cloudera Search。

    搜尋引擎讓Hadoop更平易近人

Cloudera希望客戶能在Hadoop壯大之前就將資料儲存進去,并將之整合入平臺。但使用Hadoop平臺與資料互動必須要懂得MapReduce運算技術,也就是說你得會寫Java語言,這對許多使用者來說并不方便。

雖然Hadoop已經推出許多工具讓使用上更便利,但Cloudera希望更進一步建立一個Hadoop的搜尋引擎。產品經理澤德勒維斯基 (Charles Zedlewski)說:「數萬開發者可能知道怎么用MapReduce,執行SQL指令,但會使用搜尋引擎的人有數十億人。」

Cloudera Search能夠與Hadoop分散式檔案系統(HDFS)或資料庫系統Hbase整合,使用者可以輸入搜尋字串后就找到一串搜尋結果。這項搜尋工具是以Apache Solr搜尋器為基礎。

市場研究公司RedMonk分析師歐葛瑞迪(Stephen O’Grady)表示:「每多一項數據處理工具對Hadoop都有好處……從寫MapReduce程式到支援SQL語法的Hive或Pig等套件,每項工具都讓數據處理更有效率。」

    所有大數據都該放入Hadoop嗎?

這對改善Hadoop可用性的確幫助不少,但問題是:客戶是否真的有需要將它們所有的數據都放入Hadoop?微軟今年稍早發表一份報告,主張 大多數的公司只需要增加叢集伺服器的使用數量,不須嘗試用單臺伺服器處理數據,報告指出,甚至雅虎和臉書兩家最需要數據處理效能的公司,也是透過增加伺服 器叢集解決效能問題。

但許多公司正面臨數據不斷增長的問題,一開始就加入Hadoop是不錯的選擇,RedMonk過去也是Hadoop的使用者,但最近轉用BigQuery等其他的Google資料庫工具,原因是他們的數據在量上本質就比較小,而且成長的速度也沒有分析師原本預測得快。

但歐葛瑞迪說:「如果我們能夠更快速地獲得數據,就一定會使用Hadoop!」

謝謝 臺灣大數據專家:Grood的投稿。轉載請注明來源

 本文由用戶 dy223 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!