복붙노트

[HADOOP] Hadoop - java.net.ConnectException : 연결이 거부되었습니다.

HADOOP

Hadoop - java.net.ConnectException : 연결이 거부되었습니다.

나는 (localhost에서) hdfs에 연결하고 싶습니다. 오류가 있습니다 :

despubuntu-ThinkPad-E420 / 127.0.1.1에서 localhost : 54310으로 연결시 예외가 발생했습니다 : java.net.ConnectException : Connection refused; 자세한 내용은 http://wiki.apache.org/hadoop/ConnectionRefused를 참조하십시오.

나는 다른 게시물의 모든 단계를 따르지만, 내 문제는 해결되지 않습니다. 내가 hadoop 2.7을 사용하고 이것은 구성입니다 :

core-site.xml

<configuration>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/despubuntu/hadoop/name/data</value>
  </property>

  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:54310</value>
  </property>
</configuration>

hdfs-site.xml

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>

나는 / usr / local / hadoop / bin / hdfs namenode -format을 입력하고 /usr/local/hadoop/sbin/start-all.sh

하지만 "jps"라고 입력하면 결과는 다음과 같습니다.

10650 Jps
4162 Main
5255 NailgunRunner
20831 Launcher

도움이 필요해.

해결법

  1. ==============================

    1.core-site.xml의 포트 9000으로 설정된 DFS가 실제로 시작되었는지 확인하십시오. jps 명령으로 확인할 수 있습니다. sbin / start-dfs.sh로 시작할 수 있습니다.

    core-site.xml의 포트 9000으로 설정된 DFS가 실제로 시작되었는지 확인하십시오. jps 명령으로 확인할 수 있습니다. sbin / start-dfs.sh로 시작할 수 있습니다.

  2. ==============================

    2.너 hadoop 클러스터를 올바르게 설정하지 않았다면 다음 단계를 따르십시오.

    너 hadoop 클러스터를 올바르게 설정하지 않았다면 다음 단계를 따르십시오.

    Step1 : 설정 시작 .bashrc :

    vi $HOME/.bashrc
    

    파일 끝에 다음 줄을 넣으십시오 : (당신의 홈으로 hadoop을 바꾸십시오)

    # Set Hadoop-related environment variables
    export HADOOP_HOME=/usr/local/hadoop
    
    # Set JAVA_HOME (we will also configure JAVA_HOME directly for Hadoop later on)
    export JAVA_HOME=/usr/lib/jvm/java-6-sun
    
    # Some convenient aliases and functions for running Hadoop-related commands
    unalias fs &> /dev/null
    alias fs="hadoop fs"
    unalias hls &> /dev/null
    alias hls="fs -ls"
    
    # If you have LZO compression enabled in your Hadoop cluster and
    # compress job outputs with LZOP (not covered in this tutorial):
    # Conveniently inspect an LZOP compressed file from the command
    # line; run via:
    #
    # $ lzohead /hdfs/path/to/lzop/compressed/file.lzo
    #
    # Requires installed 'lzop' command.
    #
    lzohead () {
        hadoop fs -cat $1 | lzop -dc | head -1000 | less
    }
    
    # Add Hadoop bin/ directory to PATH
    export PATH=$PATH:$HADOOP_HOME/bin
    

    2 단계 : hadoop-env.sh를 다음과 같이 편집하십시오 :

    # The java implementation to use.  Required.
    export JAVA_HOME=/usr/lib/jvm/java-6-sun
    

    3 단계 : 이제 디렉토리를 만들고 필요한 소유권과 사용 권한을 설정하십시오.

    $ sudo mkdir -p /app/hadoop/tmp
    $ sudo chown hduser:hadoop /app/hadoop/tmp
    # ...and if you want to tighten up security, chmod from 755 to 750...
    $ sudo chmod 750 /app/hadoop/tmp
    

    4 단계 : core-site.xml 편집

    <property>
      <name>hadoop.tmp.dir</name>
      <value>/app/hadoop/tmp</value>
    </property>
    
    <property>
      <name>fs.default.name</name>
      <value>hdfs://localhost:54310</value>
    </property>
    

    5 단계 : mapred-site.xml 편집

    <property>
      <name>mapred.job.tracker</name>
      <value>localhost:54311</value>
    </property>
    

    6 단계 : hdfs-site.xml 편집

    <property>
      <name>dfs.replication</name>
      <value>1</value>
    </property>
    

    마지막으로 hdfs를 포맷하십시오 (Hadoop 클러스터를 처음 설정할 때이 작업을 수행해야합니다)

     $ /usr/local/hadoop/bin/hadoop namenode -format
    

    이게 당신을 도울 수 있기를 바랍니다.

  3. ==============================

    3.나는 같은 문제가있다. 입력시 이름 노드, DataNode, 자원 관리자 및 작업 관리자 데몬이 실행중인 것을 볼 수 있습니다. start-all.sh를 실행하면 모든 데몬이 실행되기 시작하고 이제 HDFS에 액세스 할 수 있습니다.

    나는 같은 문제가있다. 입력시 이름 노드, DataNode, 자원 관리자 및 작업 관리자 데몬이 실행중인 것을 볼 수 있습니다. start-all.sh를 실행하면 모든 데몬이 실행되기 시작하고 이제 HDFS에 액세스 할 수 있습니다.

  4. ==============================

    4.먼저 java 프로세스가 작동하는지 여부는 명령 줄에 jps 명령을 입력하여 확인하십시오. 실행중인 jps 명령 실행시 필수 프로세스 - >>

    먼저 java 프로세스가 작동하는지 여부는 명령 줄에 jps 명령을 입력하여 확인하십시오. 실행중인 jps 명령 실행시 필수 프로세스 - >>

    다음 프로세스가 실행 중이 아니면 먼저 다음 명령을 사용하여 이름 노드를 시작하십시오. - >> 시작 - dfs.sh

    이것은 나를 위해 일하고 당신이 진술 한 오류를 제거했습니다.

  5. ==============================

    5.비슷한 오류가 발생했습니다. 확인한 결과 내 namenode 서비스가 중지 된 상태임을 알게되었습니다.

    비슷한 오류가 발생했습니다. 확인한 결과 내 namenode 서비스가 중지 된 상태임을 알게되었습니다.

    그것이 시작 / 실행 상태가 아닌 경우

    이름 노드 서비스가 다시 시작된 후 완전히 작동하려면 시간이 걸립니다. 메모리의 모든 hdfs 편집 내용을 읽습니다. / var / log / hadoop-hdfs / {최신 로그 파일} 명령을 사용하여 / var / log / hadoop-hdfs /에서 진행 상황을 확인할 수 있습니다.

  6. from https://stackoverflow.com/questions/29905388/hadoop-java-net-connectexception-connection-refused by cc-by-sa and MIT license