복붙노트

[HADOOP] 하둡 데이터 노드 시작 실패 - 잘못된 구성 : 네임 노드 주소 dfs.namenode.servicerpc 주소 또는 dfs.namenode.rpc 주소가 구성되지

HADOOP

하둡 데이터 노드 시작 실패 - 잘못된 구성 : 네임 노드 주소 dfs.namenode.servicerpc 주소 또는 dfs.namenode.rpc 주소가 구성되지

나는 하나의 네임 노드와 두 개의 데이타 노드 (SLAVE1 및 slave2)와 하둡 클러스터를 설정하려고 그래서 아파치 하둡에서 zip 파일을 다운로드하여 데이타 노드의 네임 노드와 하나 (SLAVE1)에 압축을 푼.

그래서 마스터 / SLAVE1에 (네임 노드 서식) 모든 구성을 만들어 성공적으로 내가 관리자 UI에서 데이터 노드 인스턴스를 작업을 제출하고보고 할 수 있음을 의미 마스터와 SLAVE1을 설정합니다.

그래서 SLAVE1에 전체 하둡 설치를 압축하고 slave2에 압축을 푼 및 JAVA_HOME 등의 tmp 디렉토리 환경 변수에 대한 몇 가지 속성 값을 변경했습니다. 나는 코어를 site.xml의 마스터 URL (fs.defaultFS)을 터치하지 않았다.

내가 slave2에서 데이터 노드를 시작하려고하면이 오류를 얻고있다.

java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured

내가 SLAVE1에서 이러한 속성을 지정하고 아무 문제없이 SLAVE1에서 데이터 노드를 시작할 수,하지만이 모든 구성이 동일하더라도 slave2에서이 오류를 던지고하지 않았다 이상한이다.

나는이 문제와 관련이 링크를 찾았지만 내 환경에서 작동하지 않습니다.

나는에 CentOS에 하둡 2.4.1 및 JDK1.7을 사용하고 있습니다.

이미이 문제를 가지고있는 사람이 그것을 알아 낸 몇 가지 정보를 공유 할 수 있다면 그것은 매우 도움이 될 것입니다.

감사.

해결법

  1. ==============================

    1.이 단계는 나를 위해 문제를 해결 :

    이 단계는 나를 위해 문제를 해결 :

    그런 다음, 하둡이 제대로 시작 할 수 있습니다.

  2. ==============================

    2.나는 당신과 같은 문제가 발생했습니다.

    나는 당신과 같은 문제가 발생했습니다.

    내가 노예로 마스터에서 CONFIGS을 복사하는 명령 scp를 사용할 때,이 명령은 실제로 파일을 교체하지 않았다. 내가 다시 처음으로 전체 하둡 폴더를 제거하고 복사 해왔다 후, porblem 해결.

    나는 당신이 당신의 Slave2에 CONFIGS를 한 번 더 확인하시기 바랍니다.

    행운을 빕니다.

  3. ==============================

    3.호스트 이름은 문자 "_"를 포함하는 경우는 예를 들면. "my_host는"변경을 "이 myhost" 또한 코어에 site.xml에서 호스트 이름을 변경하는 것을 잊지 마세요.

    호스트 이름은 문자 "_"를 포함하는 경우는 예를 들면. "my_host는"변경을 "이 myhost" 또한 코어에 site.xml에서 호스트 이름을 변경하는 것을 잊지 마세요.

  4. ==============================

    4.당신이 같은 핵심-site.xml 파일을 config (설정) 만 할 필요 :

    당신이 같은 핵심-site.xml 파일을 config (설정) 만 할 필요 :

    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://slave:9000</value>
    </property>
    

    그것은 dfs.namenode.rpc 주소를 구성하는 것을 의미한다.

    하나의 실수 경험 나는 만남을했습니다. 같은 오류 마사지 질문은 설명한다.

    (속성 명 틀린 철자)

    <property>
    <name>fs.defautFS</name>
    <value>hdfs://slave:9000</value>
    </property>
    
  5. ==============================

    5.나는 또한 당신과 같은 문제가 발생했습니다. 원인은 다음과 같습니다 : 나는 그런 hadoop-env.sh, HDFS-site.xml 파일, 코어를 site.xml, mapred-site.xml 파일로 잘못된 파일을 구성합니다. 이러한 파일은 이전 버전과 / usr / 지방 / 하둡은 / etc / 하둡 디렉토리 대신에 / usr / 지방 / 하둡 / conf의에 배치됩니다. ~ $의 CP : 또한, / usr / 지방 / 하둡에서 mapred-site.xml.template 같은 파일이 / 등은 / 하둡 디렉토리, 따라서이 명령 hduser의 @ localhost를 같은 다른 파일이 파일을 복사해야 /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

    나는 또한 당신과 같은 문제가 발생했습니다. 원인은 다음과 같습니다 : 나는 그런 hadoop-env.sh, HDFS-site.xml 파일, 코어를 site.xml, mapred-site.xml 파일로 잘못된 파일을 구성합니다. 이러한 파일은 이전 버전과 / usr / 지방 / 하둡은 / etc / 하둡 디렉토리 대신에 / usr / 지방 / 하둡 / conf의에 배치됩니다. ~ $의 CP : 또한, / usr / 지방 / 하둡에서 mapred-site.xml.template 같은 파일이 / 등은 / 하둡 디렉토리, 따라서이 명령 hduser의 @ localhost를 같은 다른 파일이 파일을 복사해야 /usr/local/hadoop/etc/hadoop/mapred-site.xml.template /usr/local/hadoop/etc/hadoop/mapred-site.xml

    나는 당신이 당신의 시스템을 다시 구성하려면이 가이드를 따라하는 것이 좋습니다. 하나의 노드에서 하둡을 설치 . 당신은 다중 노드에 설치할 때이에서 당신은 당신의 문제를 탐색 할 수 있습니다

  6. ==============================

    6.

    <configuration>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/data/namenode</value>
        </property>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/data/datanode</value>
        </property>
    </configuration>
    

    그런 다음 폴더에 액세스하는 사용자에게 권한을 부여해야합니다.

  7. from https://stackoverflow.com/questions/31389376/hadoop-datanode-startup-fail-incorrect-configuration-namenode-address-dfs-nam by cc-by-sa and MIT license