Hadoop環境搭建過程中可能遇到的問題
1、集群啟動的時候,從節點的datanode沒有啟動
問題原因:從節點的tmp/data下的配置文件中的clusterID與主節點的tmp/data下的配置文件中的clusterID不一致,導致集群啟動時,hadoop會殺死從節點的datanode進程。
解決方案:
a) 將集群關閉;
b) 刪除你在hadoop配置中設置的tmp下的data和name中的內容(每一個節點都要做這個操作)
c) 重新格式化一次hdfs
d) 重啟集群,問題解決
2、集群啟動時,jps顯示所有的hadoop進程都已經存在,但是宿主機的瀏覽器打不開監控頁面
問題原因:集群中的所有節點的防火墻沒有被禁用,導致宿主機無法訪問監控界面。
解決方案:
a) 將防火墻禁用(每一個節點都要做這個操作)
centos 7:
systemctl stop firewalld.service #停止
systemctl disable firewalld.service #禁用
之前的版本: service iptables stop #停止 chkconfig iptables off #禁用 b) 問題解決。
本文由用戶 jopen 自行上傳分享,僅供網友學習交流。所有權歸原作者,若您的權利被侵害,請聯系管理員。
轉載本站原創文章,請注明出處,并保留原始鏈接、圖片水印。
本站是一個以用戶分享為主的開源技術平臺,歡迎各類分享!