hadoop2.7.1環境搭建

jopen 8年前發布 | 10K 次閱讀 分布式/云計算/大數據

在老板的支持下,陸續劃拉到了10幾臺機器,綁定了固定IP,工作之余開始了Hadoop之旅。將要點記錄下來,以備查閱。

硬件構成:

Resource

Volume

CPU

2 cores

Memory

4 GB

Disk

500   GB

Network

100 M

軟件構成:

Name

Version

Install   Path

CentOS

6.7 x86_64

/

Oracle JDK

7u79-linux-x64

/usr/local/java/

Hadoop

2.7.1

/home/hadoop/

Flume

1.6.0

/home/flume/

Maven

3.3.9

/usr/local/maven/

Ant

1.9.6

/usr/local/ant

MySQL

5.6.21 Community Server

/home/mysql/

D3.js

v3

整體架構:

hadoop2.7.1環境搭建 - 師弟文

DFS和Yarn構成:

hadoop2.7.1環境搭建 - 師弟文

各個節點需要的配置:

hadoop2.7.1環境搭建 - 師弟文

調試hadoop節點用到的命令:

sbin/hadoop-daemon.sh start journal
bin/hdfs namenode format
sbin/hadoop-daemon.sh start namenode
bin/hdfs namenode -bootstrapStandby
sbin/hadoop-daemon.sh start namenode
bin/hdfs haadmin -transitionToActive nn1
sbin/hadoop-daemons.sh start datanode
sbin/yarn-daemon.sh start resourcemanager
sbin/yarn-daemon.sh start nodemanager

調試完畢后的集群啟動/關閉命令:

sbin/start-dfs.sh
sbin/start-yarn.sh
bin/hdfs haadmin -transitionToActive nn1

sbin/stop-dfs.sh
sbin/stop-yarn.sh

DFS管理界面:

hadoop2.7.1環境搭建 - 師弟文

YARN管理界面:

hadoop2.7.1環境搭建 - 師弟文

正在把150G日志手動導入DFS,暫時還沒用上Flume,后面逐步集成進來。

MR運行結果存入DFS或者灌入MySQL都試驗成功,回頭整理。

Yarn的資源隊列臨時配置了一個,現在只是能跑,還不明白咋回事,抽時間繼續研究。

在4個data node節點上(昨晚才湊到9節點)對15G日志跑一個過濾useragent的MR,需要8分鐘,這樣算下來需要1天時間才能對1個月的日志解析完,孰能忍!性能優化需要陸續展開。

配置文件的內容參考了hadoop官網,董西成博客

來自: http://my.oschina.net/stephenyng/blog/591488

 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!