Hadoop平臺集群搭建
1. Linux配置hadoop環境
環境:Ubuntu10 linux、jdk-7-linux-i586.tar.gz
1.1 將jdk上傳到Ubuntu
a.在虛擬機中設置->選項->共享文件夾
b.拖到指定文件
c.使用命令tar zxvf jdk-7-linux-i586.tar.gz 解壓文件
d.將解壓好的jdk文件夾用最高權限復移動到/usr/jdk目錄里
sudo su
cp -r jdk-7-linux-i586.tar.gz /usr/jdk(放在opt目錄比較好)
e.設置環境變量
sudo gedit etc/profile
f.添加java-home
export JAVA_HOME=/usr/jdk/jdk1.7.0
export JRE_HOME=/usr/jdk/jdk1.7.0/jre
Export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin:$PATH
g. source /etc/profile
這個時候,java -version ,可以看到自己的jdk配置成功了,如果你沒有出現,再看看。
1.2 配置ssh
a.sudo apt-get update
b.sudo apt-get install openssh-server
結束言:ssh是一種基于公鑰和私鑰的加密安全方式,最開始master守護進程會產生一對密鑰,稱作公鑰和私鑰,并且把公鑰發送到各個slaver,自己則把私鑰保存,各個slave通過特定的機制把一串消息放回給master,后者將這串消息和自己的私鑰進行核對,如果符合則連接成功。
生成本地的key,可以到根目錄查看,ls -al命令,會多了一個.ssh的文件,里面會有一個私鑰和公鑰
復制一份公鑰并重命名叫做authorized_keys,拷貝到slaver datanode節點,這里只做一個slaver,如果有多個slaver,就重復復制到不同的datanode節點上。(這里折騰了好久哦,大家要注意寫法了)
接下來風別配置下面的三個文件,這里不做解釋了,直接貼圖,這些文件就在hadoop文件的conf文件夾里面
之后格式化hdfs,看有沒有報錯哦
然后就可以跑一下了,這里要注意權限問題哦,哥在這里搞了好久呢
打開網頁,看看部署的結果
文件系統里面,有一個文件,這個文件就是我創建的tmp用來保存批處理文件的。至此部署成功。