복붙노트

[HADOOP] 하둡 멀티 노드 클러스터에 start-dfs.sh을 시작할 수 없습니다

HADOOP

하둡 멀티 노드 클러스터에 start-dfs.sh을 시작할 수 없습니다

나는 지금 내가 마스터 노드에서 암호없이 슬레이브 연결할 수있는 하둡 다중 노드 클러스터를 생성하고 또한 마스터 및 슬레이브 노드에 SSH를 구성

내가 드릴 수 없습니다 마스터 노드에 start-dfs.sh하려고 할 때 실행이 라인 아래에서 정지 노드를 슬레이브 연결

로그:

HNname@master:~$ start-all.sh
starting namenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-namenode-master.out
HDnode@slave's password: master: starting datanode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-datanode-master.out

내가 입력을 누르면

slave: Connection closed by 192.168.0.2
master: starting secondarynamenode, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-secondarynamenode-master.out
jobtracker running as process 10396. Stop it first.
HDnode@slave's password: master: starting tasktracker, logging to /usr/local/hadoop/libexec/../logs/hadoop-HNname-tasktracker-master.out

slave: Permission denied, please try again.
HDnode@slave's password:

슬레이브 비밀번호를 입력 한 후에 접속이 닫힐

내가 시도 일하지만 결과 아래 :

해결법

  1. ==============================

    1.나는 당신이이 단계의 "대상 호스트에의 authorized_keys 파일에 SSH 공개 키를 추가"를 놓친 생각

    나는 당신이이 단계의 "대상 호스트에의 authorized_keys 파일에 SSH 공개 키를 추가"를 놓친 생각

    그냥 제대로 암호없는 SSH 단계를 다시 실행. 이에 따라 :

    참고 : 설정 암호 덜 SSH

    참고 : 암호없이 SSH가 설치가 제대로 경우 암호를 물었다되지 않습니다.

  2. ==============================

    2.하둡라는 새로운 사용자와 하둡 서비스를 시작해야합니다.

    하둡라는 새로운 사용자와 하둡 서비스를 시작해야합니다.

    그런 다음 새로운 사용자와 노예로 공개 키를 추가해야합니다.

    문제가 해결되지 않으면 방화벽이나 iptables에를 확인

    나는 그것이 도움이되기를 바랍니다

  3. ==============================

    3.즉, 제대로 공개 키를 생성하지 않은 것을 의미한다.

    즉, 제대로 공개 키를 생성하지 않은 것을 의미한다.

    순서 아래에 따르십시오.

    지금은 암호를 요구해서는 안된다.

  4. from https://stackoverflow.com/questions/32921761/unable-to-start-start-dfs-sh-in-hadoop-multinode-cluster by cc-by-sa and MIT license