Hadoop環境搭建過程中可能遇到的問題

jopen 9年前發布 | 12K 次閱讀 Hadoop 分布式/云計算/大數據


1、集群啟動的時候,從節點的datanode沒有啟動

問題原因:從節點的tmp/data下的配置文件中的clusterID與主節點的tmp/data下的配置文件中的clusterID不一致,導致集群啟動時,hadoop會殺死從節點的datanode進程。

解決方案:

a) 將集群關閉;

b) 刪除你在hadoop配置中設置的tmp下的data和name中的內容(每一個節點都要做這個操作)

c) 重新格式化一次hdfs

d) 重啟集群,問題解決

2、集群啟動時,jps顯示所有的hadoop進程都已經存在,但是宿主機的瀏覽器打不開監控頁面

問題原因:集群中的所有節點的防火墻沒有被禁用,導致宿主機無法訪問監控界面。

解決方案:

a) 將防火墻禁用(每一個節點都要做這個操作)

centos 7:

systemctl stop firewalld.service #停止

systemctl disable firewalld.service #禁用

 之前的版本:  service iptables stop #停止 chkconfig iptables off #禁用 b)  問題解決。 
 本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
 轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
 本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!