Hadoop安裝部署

ymc4 9年前發布 | 29K 次閱讀 Hadoop 分布式/云計算/大數據

系統要求

安裝虛擬機

使用VirtualBox安裝CentOS6.4,存儲為30G,內存為1G,并使用復制克隆出兩個新的虛擬機,這樣就存在3臺虛擬機,設置三臺虛擬機的主機名稱,如:master、slaver1、slaver2

安裝準備

創建hadoop用戶

使用專有用戶進行相關操作

# 創建hadoop用戶組
groupadd hadoop
# 創建hadoop用戶
useradd hadoop
# 設置密碼
passwd hadoop
# 添加用戶到用戶組
usermod -G hadoop hadoop

基本服務

ssh&rsync

# 安裝ssh服務
yum install ssh
# 安裝數據同步工具
yum install rsync
# 設置ssh服務開機啟動
systemctl enable sshd.service
# 啟動ssh服務
systemctl start sshd.service
# 或者
service sshd start

JDK

http://hunng.com/2014/04/18/jdk-install-and-config/

修改主機名

# /etc/hostname
master
# /etc/hosts
192.168.19.110    master localhost
192.168.19.111    slaver1 
192.168.19.112    slaver2

防火墻設置

/etc/init.d/iptables stop

無密碼登錄

1.生成RSA格式的密鑰對

# 切換到hadoop賬戶
cd
ssh-keygen -t rsa -P ""

將會在~/.ssh/目錄下生成密鑰文件idrsa與公鑰文件idrsa.pub

2.設置自動登錄

# 單機模式下
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
# 集群模式下
scp ~/.ssh/id_rsa.pub hadoop@slaver:/home/hadoop/.ssh/authorized_keys

安裝配置

目錄規范

為便于管理, 最好將程序目錄和數據目錄分離。

1.程序目錄

mkdir /opt/cloud
tar -zxvf hadoop-1.0.4.tar.gz -C /opt/cloud/src/
cd /opt/cloud/
ln -s -f /opt/cloud/src/hadoop-1.0.4 hadoop

2.數據目錄

# 設置目錄所有者為hadoop
mkdir /data
chown hadoop:hadoop /data

# 切換到hadoop賬戶創建相關目錄
su hadoop
mkdir hadoop
mkdir -p logs/hadoop
mkdir -p pids/hadoop

修改配置

1.系統變量設置

# vim /etc/profile
export HADOOP_HOME=/opt/cloud/hadoop
export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
source /etc/profile

2.$HADOOP_HOME/conf/hadoop-env.sh

export JAVA_HOME=/usr/java/default
export HADOOP_LOG_DIR=/data/logs/hadoop
export HADOOP_PID_DIR=/data/pids/hadoop

3.$HADOOP_HOME/conf/core-site.xml

<property>
    <name>fs.default.name</name>
    <value>hdfs://master:9000</value>
</property>
<property>
    <name>hadoop.tmp.dir></name>
    <value>/data/hadoop</value>
</property>

4.$HADOOP_HOME/conf/mapred-site.xml

<property>
    <name>mapred.job.tracker</name>
    <value>master:9001</value>
</property>

5.$HADOOP_HOME/conf/hdfs-site.xml

<property>
    <name>dfs.replication</name>
    <value>3</value>
</property>
<property>
    <name>dfs.data.dir</name>
    <value>${hadoop.tmp.dir}/dfs/data</value>
</property>
<property>
    <name>dfs.name.dir</name>
    <value>${hadoop.tmp.dir}/dfs/name</value>
</property>

6.$HADOOP_HOME/conf/masters

master

7.$HADOOP_HOME/conf/slavers

slaver1
slaver2

啟動服務

1.格式化文件系統

$HADOOP_HOME/bin/hadoop namenode -format

2.啟動HDFS服務

$HADOOP_HOME/bin/start-dfs.sh

3.啟動MR服務

$HADOOP_HOME/bin/start-mapred.sh

4.相關進程

[hadoop@master ~]$ cd /opt/cloud/hadoop/bin/
[hadoop@master bin]$ ./start-all.sh
starting namenode, logging to /data/logs/hadoop/hadoop-hadoop-namenode-master.out
master: starting datanode, logging to /data/logs/hadoop/hadoop-hadoop-datanode-master.out
master: starting secondarynamenode, logging to /data/logs/hadoop/hadoop-hadoop-secondarynamenode-hadooptest.out
starting jobtracker, logging to /data/logs/hadoop/hadoop-hadoop-jobtracker-master.out
master: starting tasktracker, logging to /data/logs/hadoop/hadoop-hadoop-tasktracker-master.out
[hadoop@master bin]$ jps
2542 SecondaryNameNode
2282 NameNode
2764 TaskTracker
2819 Jps
2634 JobTracker
2409 DataNode
[hadoop@master bin]$

5.查看狀態

http://master:50030/

http://master:50070/

 本文由用戶 ymc4 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!