[HADOOP] 하둡 멀티 노드 클러스터에 start-dfs.sh을 시작할 수 없습니다
HADOOP하둡 멀티 노드 클러스터에 start-dfs.sh을 시작할 수 없습니다
나는 지금 내가 마스터 노드에서 암호없이 슬레이브 연결할 수있는 하둡 다중 노드 클러스터를 생성하고 또한 마스터 및 슬레이브 노드에 SSH를 구성
내가 드릴 수 없습니다 마스터 노드에 start-dfs.sh하려고 할 때 실행이 라인 아래에서 정지 노드를 슬레이브 연결
로그:
HNname@master:~$ start-all.sh
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-namenode-master.out
HDnode@slave's password: master: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-datanode-master.out
내가 입력을 누르면
slave: Connection closed by 192.168.0.2
master: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-secondarynamenode-master.out
jobtracker running as process 10396. Stop it first.
HDnode@slave's password: master: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-tasktracker-master.out
slave: Permission denied, please try again.
HDnode@slave's password:
슬레이브 비밀번호를 입력 한 후에 접속이 닫힐
내가 시도 일하지만 결과 아래 :
해결법
-
==============================
1.나는 당신이이 단계의 "대상 호스트에의 authorized_keys 파일에 SSH 공개 키를 추가"를 놓친 생각
나는 당신이이 단계의 "대상 호스트에의 authorized_keys 파일에 SSH 공개 키를 추가"를 놓친 생각
그냥 제대로 암호없는 SSH 단계를 다시 실행. 이에 따라 :
참고 : 설정 암호 덜 SSH
참고 : 암호없이 SSH가 설치가 제대로 경우 암호를 물었다되지 않습니다.
-
==============================
2.하둡라는 새로운 사용자와 하둡 서비스를 시작해야합니다.
하둡라는 새로운 사용자와 하둡 서비스를 시작해야합니다.
그런 다음 새로운 사용자와 노예로 공개 키를 추가해야합니다.
문제가 해결되지 않으면 방화벽이나 iptables에를 확인
나는 그것이 도움이되기를 바랍니다
-
==============================
3.즉, 제대로 공개 키를 생성하지 않은 것을 의미한다.
즉, 제대로 공개 키를 생성하지 않은 것을 의미한다.
순서 아래에 따르십시오.
지금은 암호를 요구해서는 안된다.
from https://stackoverflow.com/questions/32921761/unable-to-start-start-dfs-sh-in-hadoop-multinode-cluster by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] JDBC는) (isValid 연결이 잘못된 작업에 실패 하이브 (0) | 2019.09.28 |
---|---|
[HADOOP] 하둡 - LeaseExpiredException (0) | 2019.09.28 |
[HADOOP] 하둡 HDFS 오류로 로컬 데이터를 복사 (0) | 2019.09.28 |
[HADOOP] Nutch SOLR의 dataimport 핸들러? (0) | 2019.09.28 |
[HADOOP] 실 작업에 스파크가 ExitCode를 실패했습니다 : 1 및 stderr은 "주 클래스를 찾을 수 없습니다"라는 (0) | 2019.09.28 |