[HADOOP] Hadoop - java.net.ConnectException : 연결이 거부되었습니다.
HADOOPHadoop - java.net.ConnectException : 연결이 거부되었습니다.
나는 (localhost에서) hdfs에 연결하고 싶습니다. 오류가 있습니다 :
despubuntu-ThinkPad-E420 / 127.0.1.1에서 localhost : 54310으로 연결시 예외가 발생했습니다 : java.net.ConnectException : Connection refused; 자세한 내용은 http://wiki.apache.org/hadoop/ConnectionRefused를 참조하십시오.
나는 다른 게시물의 모든 단계를 따르지만, 내 문제는 해결되지 않습니다. 내가 hadoop 2.7을 사용하고 이것은 구성입니다 :
core-site.xml
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/despubuntu/hadoop/name/data</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:54310</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
나는 / usr / local / hadoop / bin / hdfs namenode -format을 입력하고 /usr/local/hadoop/sbin/start-all.sh
하지만 "jps"라고 입력하면 결과는 다음과 같습니다.
10650 Jps
4162 Main
5255 NailgunRunner
20831 Launcher
도움이 필요해.
해결법
-
==============================
1.core-site.xml의 포트 9000으로 설정된 DFS가 실제로 시작되었는지 확인하십시오. jps 명령으로 확인할 수 있습니다. sbin / start-dfs.sh로 시작할 수 있습니다.
core-site.xml의 포트 9000으로 설정된 DFS가 실제로 시작되었는지 확인하십시오. jps 명령으로 확인할 수 있습니다. sbin / start-dfs.sh로 시작할 수 있습니다.
-
==============================
2.너 hadoop 클러스터를 올바르게 설정하지 않았다면 다음 단계를 따르십시오.
너 hadoop 클러스터를 올바르게 설정하지 않았다면 다음 단계를 따르십시오.
Step1 : 설정 시작 .bashrc :
vi $HOME/.bashrc
파일 끝에 다음 줄을 넣으십시오 : (당신의 홈으로 hadoop을 바꾸십시오)
# Set Hadoop-related environment variables export HADOOP_HOME=/usr/local/hadoop # Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on) export JAVA_HOME=/usr/lib/jvm/java-6-sun # Some convenient aliases and functions for running Hadoop-related commands unalias fs &> /dev/null alias fs="hadoop fs" unalias hls &> /dev/null alias hls="fs -ls" # If you have LZO compression enabled in your Hadoop cluster and # compress job outputs with LZOP (not covered in this tutorial): # Conveniently inspect an LZOP compressed file from the command # line; run via: # # $ lzohead /hdfs/path/to/lzop/compressed/file.lzo # # Requires installed 'lzop' command. # lzohead () { hadoop fs -cat $1 | lzop -dc | head -1000 | less } # Add Hadoop bin/ directory to PATH export PATH=$PATH:$HADOOP_HOME/bin
2 단계 : hadoop-env.sh를 다음과 같이 편집하십시오 :
# The java implementation to use. Required. export JAVA_HOME=/usr/lib/jvm/java-6-sun
3 단계 : 이제 디렉토리를 만들고 필요한 소유권과 사용 권한을 설정하십시오.
$ sudo mkdir -p /app/hadoop/tmp $ sudo chown hduser:hadoop /app/hadoop/tmp # ...and if you want to tighten up security, chmod from 755 to 750... $ sudo chmod 750 /app/hadoop/tmp
4 단계 : core-site.xml 편집
<property> <name>hadoop.tmp.dir</name> <value>/app/hadoop/tmp</value> </property> <property> <name>fs.default.name</name> <value>hdfs://localhost:54310</value> </property>
5 단계 : mapred-site.xml 편집
<property> <name>mapred.job.tracker</name> <value>localhost:54311</value> </property>
6 단계 : hdfs-site.xml 편집
<property> <name>dfs.replication</name> <value>1</value> </property>
마지막으로 hdfs를 포맷하십시오 (Hadoop 클러스터를 처음 설정할 때이 작업을 수행해야합니다)
$ /usr/local/hadoop/bin/hadoop namenode -format
이게 당신을 도울 수 있기를 바랍니다.
-
==============================
3.나는 같은 문제가있다. 입력시 이름 노드, DataNode, 자원 관리자 및 작업 관리자 데몬이 실행중인 것을 볼 수 있습니다. start-all.sh를 실행하면 모든 데몬이 실행되기 시작하고 이제 HDFS에 액세스 할 수 있습니다.
나는 같은 문제가있다. 입력시 이름 노드, DataNode, 자원 관리자 및 작업 관리자 데몬이 실행중인 것을 볼 수 있습니다. start-all.sh를 실행하면 모든 데몬이 실행되기 시작하고 이제 HDFS에 액세스 할 수 있습니다.
-
==============================
4.먼저 java 프로세스가 작동하는지 여부는 명령 줄에 jps 명령을 입력하여 확인하십시오. 실행중인 jps 명령 실행시 필수 프로세스 - >>
먼저 java 프로세스가 작동하는지 여부는 명령 줄에 jps 명령을 입력하여 확인하십시오. 실행중인 jps 명령 실행시 필수 프로세스 - >>
다음 프로세스가 실행 중이 아니면 먼저 다음 명령을 사용하여 이름 노드를 시작하십시오. - >> 시작 - dfs.sh
이것은 나를 위해 일하고 당신이 진술 한 오류를 제거했습니다.
-
==============================
5.비슷한 오류가 발생했습니다. 확인한 결과 내 namenode 서비스가 중지 된 상태임을 알게되었습니다.
비슷한 오류가 발생했습니다. 확인한 결과 내 namenode 서비스가 중지 된 상태임을 알게되었습니다.
그것이 시작 / 실행 상태가 아닌 경우
이름 노드 서비스가 다시 시작된 후 완전히 작동하려면 시간이 걸립니다. 메모리의 모든 hdfs 편집 내용을 읽습니다. / var / log / hadoop-hdfs / {최신 로그 파일} 명령을 사용하여 / var / log / hadoop-hdfs /에서 진행 상황을 확인할 수 있습니다.
from https://stackoverflow.com/questions/29905388/hadoop-java-net-connectexception-connection-refused by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 네임 노드 고 가용성 클라이언트 요청 (0) | 2019.08.04 |
---|---|
[HADOOP] hadoop의 데이터 노드가 시작되지 않습니다. (0) | 2019.08.04 |
[HADOOP] 하이브 : 기존 하이브 데이터베이스의 이름을 바꿀 수 있습니까? (0) | 2019.08.04 |
[HADOOP] Spark fillNa가 null 값을 대체하지 않습니다. (0) | 2019.08.04 |
[HADOOP] Hadoop MapReduce log4j - userlogs / job_ dir의 사용자 정의 파일에 메시지를 기록 하시겠습니까? (0) | 2019.08.04 |