복붙노트

[HADOOP] 잘못된 구성 : namenode 주소 dfs.namenode.rpc-address가 구성되지 않았습니다.

HADOOP

잘못된 구성 : namenode 주소 dfs.namenode.rpc-address가 구성되지 않았습니다.

DataNode를 부팅하고 부팅 할 때이 오류가 발생합니다. 내가 읽은 바에 따르면, RPC 매개 변수는 HA 설정에 대해서만 사용된다. 나는 설정하지 않았다 (나는 생각한다).

2014-05-18 18:05:00,589 INFO  [main] impl.MetricsSystemImpl (MetricsSystemImpl.java:shutdown(572)) - DataNode metrics system shutdown complete.
2014-05-18 18:05:00,589 INFO  [main] datanode.DataNode (DataNode.java:shutdown(1313)) -     Shutdown complete.
2014-05-18 18:05:00,614 FATAL [main] datanode.DataNode (DataNode.java:secureMain(1989)) - Exception in secureMain
java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
at org.apache.hadoop.hdfs.DFSUtil.getNNServiceRpcAddresses(DFSUtil.java:840)
at   org.apache.hadoop.hdfs.server.datanode.BlockPoolManager.refreshNamenodes(BlockPoolManager.java:151)
at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:745)
at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:278)

내 파일은 다음과 같습니다.

[root @ datanode1 conf.cluster] # cat core-site.xml

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

<property>
 <name>fs.defaultFS</name>
 <value>hdfs://namenode:8020</value>
</property>

</configuration>
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
<property>
 <name>dfs.datanode.data.dir</name>
 <value>/hdfs/data</value>
</property>
<property>
 <name>dfs.permissions.superusergroup</name>
 <value>hadoop</value>
</property>
</configuration>

최신 CDH5 배포판을 사용하고 있습니다.

Installed Packages
Name        : hadoop-hdfs-datanode
Arch        : x86_64
Version     : 2.3.0+cdh5.0.1+567
Release     : 1.cdh5.0.1.p0.46.el6

이 문제를 해결하는 방법에 대한 유용한 조언이 있습니까?

편집 : Cloudera 관리자를 사용하십시오.

해결법

  1. ==============================

    1.나도 같은 문제에 직면했고 마침내 fs.default.name 값에 공백이 있음을 알았습니다. 공간을 자르면 문제가 해결되었습니다. 위의 core-site.xml에는 공간이 없으므로 문제는 내가 가진 것과 다를 수 있습니다. 내 2 센트

    나도 같은 문제에 직면했고 마침내 fs.default.name 값에 공백이 있음을 알았습니다. 공간을 자르면 문제가 해결되었습니다. 위의 core-site.xml에는 공간이 없으므로 문제는 내가 가진 것과 다를 수 있습니다. 내 2 센트

  2. ==============================

    2.이 단계는 나를 위해 문제를 해결했습니다.

    이 단계는 나를 위해 문제를 해결했습니다.

  3. ==============================

    3.분명히 core-site.xml에 구성 오류가 있습니다.

    분명히 core-site.xml에 구성 오류가 있습니다.

    <property>
     <name>fs.defaultFS</name>
     <value>hdfs://namenode:8020</value>
    </property>
    

    fs.defaultFS 설정을 hdfs : // namenode : 8020 으로 설정했는데 컴퓨터 호스트 이름이 datanode1입니다. 따라서 namenode를 datanode1로 변경하면 OK 일 것입니다.

  4. ==============================

    4.$ HADOOP_INSTALL / etc / hadoop 디렉토리에서 core-site.xml을 확인하십시오. fs.default.name 등록 정보가 올바르게 구성되어 있는지 확인하십시오.

    $ HADOOP_INSTALL / etc / hadoop 디렉토리에서 core-site.xml을 확인하십시오. fs.default.name 등록 정보가 올바르게 구성되어 있는지 확인하십시오.

  5. ==============================

    5.나는 똑같은 문제가 있었다. 데이터 노드에서 환경을 검사하여 해결책을 찾았습니다.

    나는 똑같은 문제가 있었다. 데이터 노드에서 환경을 검사하여 해결책을 찾았습니다.

    $ sudo update-alternatives --install /etc/hadoop/conf hadoop-conf /etc/hadoop/conf.my_cluster 50
    $ sudo update-alternatives --set hadoop-conf /etc/hadoop/conf.my_cluster
    

    대안이 데이터 노드에서 올바르게 설정되었는지 확인하십시오.

  6. ==============================

    6.core-site.xml, 마스터 및 슬레이브에서 전체 호스트 이름을 구성하면 문제가 해결됩니다.

    core-site.xml, 마스터 및 슬레이브에서 전체 호스트 이름을 구성하면 문제가 해결됩니다.

    이전 : node1 (실패)

    새로운 기능 : node1.krish.com (성공)

  7. ==============================

    7.dfs.name.dir 및 dfs.data.dir 디렉토리를 만들고 core-site.xml, 마스터 및 슬레이브에 전체 호스트 이름을 구성하면 내 문제가 해결됩니다.

    dfs.name.dir 및 dfs.data.dir 디렉토리를 만들고 core-site.xml, 마스터 및 슬레이브에 전체 호스트 이름을 구성하면 내 문제가 해결됩니다.

  8. ==============================

    8.내 상황에서는 / etc / hosts 설정을 소문자로 변경하여 수정했습니다.

    내 상황에서는 / etc / hosts 설정을 소문자로 변경하여 수정했습니다.

  9. ==============================

    9.필자의 경우 HADOOP_CONF_DIR을 다른 Hadoop 설치로 잘못 설정했습니다.

    필자의 경우 HADOOP_CONF_DIR을 다른 Hadoop 설치로 잘못 설정했습니다.

    hadoop-env.sh에 추가하십시오 :

    export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop/
    
  10. ==============================

    10.이러한 유형의 문제는 주로 다음 파일 중 하나에있는 속성 값 또는 이름에 공백이 있음을 나타냅니다. core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml

    이러한 유형의 문제는 주로 다음 파일 중 하나에있는 속성 값 또는 이름에 공백이 있음을 나타냅니다. core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml

    시작 및 종료 이름과 값 태그 사이에 공백을 두지 않았거나 선을 변경하지 않았는지 확인하십시오.

    암호:

     <property> 
    <name>dfs.name.dir</name> <value>file:///home/hadoop/hadoop_tmp/hdfs/namenode</value> 
    <final>true</final> 
    </property>
    
  11. ==============================

    11.나는 같은 문제에 직면했다. HDFS 포맷으로 문제를 해결했다. 중요한 메타 데이터가있는 경우 HDFS를 포맷하지 마십시오. HDFS 포맷 명령 : hdfs namenode -format

    나는 같은 문제에 직면했다. HDFS 포맷으로 문제를 해결했다. 중요한 메타 데이터가있는 경우 HDFS를 포맷하지 마십시오. HDFS 포맷 명령 : hdfs namenode -format

    namenode가 작동하지 않을 때

    HDFS 포맷 후

  12. ==============================

    12.'/ etc / hosts'파일을 확인하십시오 :  아래와 같은 줄이 있어야합니다 : (없다면 추가하십시오) 네임 노드 127.0.0.1 127.0.01을 namenode IP로 바꾸십시오.

    '/ etc / hosts'파일을 확인하십시오 :  아래와 같은 줄이 있어야합니다 : (없다면 추가하십시오) 네임 노드 127.0.0.1 127.0.01을 namenode IP로 바꾸십시오.

  13. from https://stackoverflow.com/questions/23719912/incorrect-configuration-namenode-address-dfs-namenode-rpc-address-is-not-config by cc-by-sa and MIT license