[HADOOP] 하둡 다중 노드 클러스터에서 HDFS 데몬을 시작하는 오류
HADOOP하둡 다중 노드 클러스터에서 HDFS 데몬을 시작하는 오류
하둡 다중 노드를 설정하는 동안이 .as 곧 내가 마스터에 내 HDFS 악마를 시작하면 문제 (빈 / start-dfs.sh)
나는 마스터에 로그온 아래 가지고 않았다
starting namenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-namenode-localhost.localdomain.out
slave: Warning: $HADOOP_HOME is deprecated.
slave:
slave: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out
master: Warning: $HADOOP_HOME is deprecated.
master:
master: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out
master: Warning: $HADOOP_HOME is deprecated.
master:
master: starting secondarynamenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-secondarynamenode-localhost.localdomain.out
내가 노예에 로그 아래에있어 않았다 @
일부는 셋업과 무슨 잘못, 저를 조언 해 줄 수 있습니다.
2013-07-24 12:10:59,373 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/192.168.0.1:54310. Already tried 8 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-07-24 12:11:00,374 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: master/192.168.0.1:54310. Already tried 9 time(s); retry policy is RetryUpToMaximumCountWithFixedSleep(maxRetries=10, sleepTime=1 SECONDS)
2013-07-24 12:11:00,377 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Call to master/192.168.0.1:54310 failed on local exception: java.net.NoRouteToHostException: No route to host
at org.apache.hadoop.ipc.Client.wrapException(Client.java:1144)
at org.apache.hadoop.ipc.Client.call(Client.java:1112)
해결법
-
==============================
1.당신의 네임 노드 잘 실행되고 있는지 확인합니다. 이미 참조를 실행하는 경우 연결에 문제가있는 경우. 귀하의 데이터 노드는 네임 노드 이야기 할 수 없습니다. 당신이 당신의 노예의 / etc / hosts 파일에 시스템의 IP와 호스트 이름을 추가해야합니다. 192.168.0.1:54310에 텔넷을 시도하고 연결하거나하지 할 수 있는지 여부를 확인.
당신의 네임 노드 잘 실행되고 있는지 확인합니다. 이미 참조를 실행하는 경우 연결에 문제가있는 경우. 귀하의 데이터 노드는 네임 노드 이야기 할 수 없습니다. 당신이 당신의 노예의 / etc / hosts 파일에 시스템의 IP와 호스트 이름을 추가해야합니다. 192.168.0.1:54310에 텔넷을 시도하고 연결하거나하지 할 수 있는지 여부를 확인.
우리에게 NN 로그를 표시하는 것은 도움이 될 것입니다.
편집하다 :
위키는이 문제에 대해 무슨 얘기를 참조하십시오 : 당신은 네트워크에있는 하나의 시스템이 지정된 컴퓨터에 TCP 패킷을 전송하는 방법을 알고하지 않는 경우 TCP 경로가 없으며 자바 IOException이에 싸여 오류가 좋아집니다 호스트에 도착.
을 유발할 수있는 요인 (안 단독 목록) :
빠른 솔루션은 다음의 JVM을 다시 시작합니다.
이 모든 네트워크 구성 / 라우터 문제입니다. 이 네트워크이므로, 만은 알아 내고 문제를 추적 할 수 있습니다.
from https://stackoverflow.com/questions/17827293/error-on-starting-hdfs-daemons-on-hadoop-multinode-cluster by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 실행의 실행 중에 하둡에서 슬레이브 노드의 호스트 이름을 찾기지도하는-감소 (0) | 2019.09.29 |
---|---|
[HADOOP] Sqoop을 행동을 통해 OOZIE에서 MS SQL Server 테이블 목록 (0) | 2019.09.29 |
[HADOOP] HDFS에서 일부 파일의 이름 지정 규칙 (0) | 2019.09.29 |
[HADOOP] 어떻게 하이브 데이터와 메타 스토어 의사 소통을하고 서로 통합? (0) | 2019.09.29 |
[HADOOP] 하이브 : 분할 문자열을 사용하여 정규 표현식 (0) | 2019.09.29 |