[HADOOP] 잘못된 구성 : namenode 주소 dfs.namenode.rpc-address가 구성되지 않았습니다.
HADOOP잘못된 구성 : namenode 주소 dfs.namenode.rpc-address가 구성되지 않았습니다.
DataNode를 부팅하고 부팅 할 때이 오류가 발생합니다. 내가 읽은 바에 따르면, RPC 매개 변수는 HA 설정에 대해서만 사용된다. 나는 설정하지 않았다 (나는 생각한다).
2014-05-18 18:05:00,589 INFO [main] impl.MetricsSystemImpl (MetricsSystemImpl.java:shutdown(572)) - DataNode metrics system shutdown complete.
2014-05-18 18:05:00,589 INFO [main] datanode.DataNode (DataNode.java:shutdown(1313)) - Shutdown complete.
2014-05-18 18:05:00,614 FATAL [main] datanode.DataNode (DataNode.java:secureMain(1989)) - Exception in secureMain
java.io.IOException: Incorrect configuration: namenode address dfs.namenode.servicerpc-address or dfs.namenode.rpc-address is not configured.
at org.apache.hadoop.hdfs.DFSUtil.getNNServiceRpcAddresses(DFSUtil.java:840)
at org.apache.hadoop.hdfs.server.datanode.BlockPoolManager.refreshNamenodes(BlockPoolManager.java:151)
at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:745)
at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:278)
내 파일은 다음과 같습니다.
[root @ datanode1 conf.cluster] # cat core-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:8020</value>
</property>
</configuration>
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.datanode.data.dir</name>
<value>/hdfs/data</value>
</property>
<property>
<name>dfs.permissions.superusergroup</name>
<value>hadoop</value>
</property>
</configuration>
최신 CDH5 배포판을 사용하고 있습니다.
Installed Packages
Name : hadoop-hdfs-datanode
Arch : x86_64
Version : 2.3.0+cdh5.0.1+567
Release : 1.cdh5.0.1.p0.46.el6
이 문제를 해결하는 방법에 대한 유용한 조언이 있습니까?
편집 : Cloudera 관리자를 사용하십시오.
해결법
-
==============================
1.나도 같은 문제에 직면했고 마침내 fs.default.name 값에 공백이 있음을 알았습니다. 공간을 자르면 문제가 해결되었습니다. 위의 core-site.xml에는 공간이 없으므로 문제는 내가 가진 것과 다를 수 있습니다. 내 2 센트
나도 같은 문제에 직면했고 마침내 fs.default.name 값에 공백이 있음을 알았습니다. 공간을 자르면 문제가 해결되었습니다. 위의 core-site.xml에는 공간이 없으므로 문제는 내가 가진 것과 다를 수 있습니다. 내 2 센트
-
==============================
2.이 단계는 나를 위해 문제를 해결했습니다.
이 단계는 나를 위해 문제를 해결했습니다.
-
==============================
3.분명히 core-site.xml에 구성 오류가 있습니다.
분명히 core-site.xml에 구성 오류가 있습니다.
<property> <name>fs.defaultFS</name> <value>hdfs://namenode:8020</value> </property>
fs.defaultFS name> 설정을 hdfs : // namenode : 8020 value>으로 설정했는데 컴퓨터 호스트 이름이 datanode1입니다. 따라서 namenode를 datanode1로 변경하면 OK 일 것입니다. -
==============================
4.$ HADOOP_INSTALL / etc / hadoop 디렉토리에서 core-site.xml을 확인하십시오. fs.default.name 등록 정보가 올바르게 구성되어 있는지 확인하십시오.
$ HADOOP_INSTALL / etc / hadoop 디렉토리에서 core-site.xml을 확인하십시오. fs.default.name 등록 정보가 올바르게 구성되어 있는지 확인하십시오.
-
==============================
5.나는 똑같은 문제가 있었다. 데이터 노드에서 환경을 검사하여 해결책을 찾았습니다.
나는 똑같은 문제가 있었다. 데이터 노드에서 환경을 검사하여 해결책을 찾았습니다.
$ sudo update-alternatives --install /etc/hadoop/conf hadoop-conf /etc/hadoop/conf.my_cluster 50 $ sudo update-alternatives --set hadoop-conf /etc/hadoop/conf.my_cluster
대안이 데이터 노드에서 올바르게 설정되었는지 확인하십시오.
-
==============================
6.core-site.xml, 마스터 및 슬레이브에서 전체 호스트 이름을 구성하면 문제가 해결됩니다.
core-site.xml, 마스터 및 슬레이브에서 전체 호스트 이름을 구성하면 문제가 해결됩니다.
이전 : node1 (실패)
새로운 기능 : node1.krish.com (성공)
-
==============================
7.dfs.name.dir 및 dfs.data.dir 디렉토리를 만들고 core-site.xml, 마스터 및 슬레이브에 전체 호스트 이름을 구성하면 내 문제가 해결됩니다.
dfs.name.dir 및 dfs.data.dir 디렉토리를 만들고 core-site.xml, 마스터 및 슬레이브에 전체 호스트 이름을 구성하면 내 문제가 해결됩니다.
-
==============================
8.내 상황에서는 / etc / hosts 설정을 소문자로 변경하여 수정했습니다.
내 상황에서는 / etc / hosts 설정을 소문자로 변경하여 수정했습니다.
-
==============================
9.필자의 경우 HADOOP_CONF_DIR을 다른 Hadoop 설치로 잘못 설정했습니다.
필자의 경우 HADOOP_CONF_DIR을 다른 Hadoop 설치로 잘못 설정했습니다.
hadoop-env.sh에 추가하십시오 :
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop/
-
==============================
10.이러한 유형의 문제는 주로 다음 파일 중 하나에있는 속성 값 또는 이름에 공백이 있음을 나타냅니다. core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml
이러한 유형의 문제는 주로 다음 파일 중 하나에있는 속성 값 또는 이름에 공백이 있음을 나타냅니다. core-site.xml, hdfs-site.xml, mapred-site.xml, yarn-site.xml
시작 및 종료 이름과 값 태그 사이에 공백을 두지 않았거나 선을 변경하지 않았는지 확인하십시오.
암호:
<property> <name>dfs.name.dir</name> <value>file:///home/hadoop/hadoop_tmp/hdfs/namenode</value> <final>true</final> </property>
-
==============================
11.나는 같은 문제에 직면했다. HDFS 포맷으로 문제를 해결했다. 중요한 메타 데이터가있는 경우 HDFS를 포맷하지 마십시오. HDFS 포맷 명령 : hdfs namenode -format
나는 같은 문제에 직면했다. HDFS 포맷으로 문제를 해결했다. 중요한 메타 데이터가있는 경우 HDFS를 포맷하지 마십시오. HDFS 포맷 명령 : hdfs namenode -format
namenode가 작동하지 않을 때
HDFS 포맷 후
-
==============================
12.'/ etc / hosts'파일을 확인하십시오 : 아래와 같은 줄이 있어야합니다 : (없다면 추가하십시오) 네임 노드 127.0.0.1 127.0.01을 namenode IP로 바꾸십시오.
'/ etc / hosts'파일을 확인하십시오 : 아래와 같은 줄이 있어야합니다 : (없다면 추가하십시오) 네임 노드 127.0.0.1 127.0.01을 namenode IP로 바꾸십시오.
from https://stackoverflow.com/questions/23719912/incorrect-configuration-namenode-address-dfs-namenode-rpc-address-is-not-config by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] Hadoop 스트리밍 - 감속기 출력에서 후행 탭 제거 (0) | 2019.06.17 |
---|---|
[HADOOP] TaskTracker 하위 프로세스에 메모리를 구성하는 다양한 방법 (Mapper 및 Reduce Tasks) (0) | 2019.06.17 |
[HADOOP] Spark에서 S3 (프랑크푸르트) 사용하기 (0) | 2019.06.16 |
[HADOOP] hadoop HDFS에 있나요? (0) | 2019.06.16 |
[HADOOP] Java : Hadoop 프로그램을 컴파일 할 때 com.sun.tools.javac.Main을 찾을 수 없습니다. (0) | 2019.06.16 |