복붙노트

[HADOOP] hadoop 실행 중 오류

HADOOP

hadoop 실행 중 오류

haduser@user-laptop:/usr/local/hadoop$ bin/hadoop dfs -copyFromLocal /tmp/input 
/user/haduser/input

11/12/14 14:21:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s).

11/12/14 14:21:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s).

11/12/14 14:21:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s).

11/12/14 14:21:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s).

11/12/14 14:21:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s).

11/12/14 14:21:05 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s).

11/12/14 14:21:06 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s).

11/12/14 14:21:07 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. -Already tried 7 time(s).

11/12/14 14:21:08 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s).

11/12/14 14:21:09 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s).

Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused

/ etc / hosts 파일에 localhost 항목이 있지만 / tmp / input에서 / user / haduser / input으로 파일을 복사하려고 할 때 위의 오류가 발생합니다. jps 명령을 실행하면 TaskTracker와 namenode가 나열되지 않습니다.

무엇이 문제 일 수 있습니까? 제발 누군가가 이걸 도와 줘.

해결법

  1. ==============================

    1.비슷한 문제가있었습니다. 실제로 Hadoop은 IPv6에 바인딩되었습니다. 그런 다음 $ HADOOP_HOME / conf / hadoop-env.sh에 "export HADOOP_OPTS = -Djava.net.preferIPv4Stack = true"를 추가했습니다.

    비슷한 문제가있었습니다. 실제로 Hadoop은 IPv6에 바인딩되었습니다. 그런 다음 $ HADOOP_HOME / conf / hadoop-env.sh에 "export HADOOP_OPTS = -Djava.net.preferIPv4Stack = true"를 추가했습니다.

    Hadoop은 시스템에서 IPv6을 사용하지 않도록 설정 한 경우에도 IPv6에 바인딩되었습니다. env에 추가하면 제대로 작동하기 시작합니다.

    희망이 사람을 도움이됩니다.

  2. ==============================

    2.이 경우 IP를 사용하여 로컬 시스템에 ssh를 실행하십시오.

    이 경우 IP를 사용하여 로컬 시스템에 ssh를 실행하십시오.

    $ ssh 127.0.0.1

    일단 ssh를 성공적으로 할 수 있습니다. 아래 명령을 실행하여 열려있는 포트 목록을 확인하십시오.

    ~ $ lsof -i

    이름이있는 수신 커넥터를 찾으십시오. localhost : (LISTEN)

    을 복사하고 hadoop conf 폴더의 core-site.xml에있는 fs.default.name 속성의 태그에있는 포트 번호의 기존 값을 대체하십시오

    core-site.xml을 저장하면 문제가 해결됩니다.

  3. ==============================

    3.NameNode (NN)은 HDFS의 네임 스페이스를 유지 관리하며 HDFS의 파일 시스템 작업을 위해 실행되어야합니다. NN이 시작되지 않은 이유를 로그에서 확인하십시오. TaskTracker는 HDFS에서의 작업에는 필요하지 않으며 NN과 DN만으로 충분합니다. 단일 노드 및 다중 노드에서 Hadoop을 설정하는 방법에 대한 http://goo.gl/8ogSk 및 http://goo.gl/NIWoK 자습서를 확인하십시오.

    NameNode (NN)은 HDFS의 네임 스페이스를 유지 관리하며 HDFS의 파일 시스템 작업을 위해 실행되어야합니다. NN이 시작되지 않은 이유를 로그에서 확인하십시오. TaskTracker는 HDFS에서의 작업에는 필요하지 않으며 NN과 DN만으로 충분합니다. 단일 노드 및 다중 노드에서 Hadoop을 설정하는 방법에 대한 http://goo.gl/8ogSk 및 http://goo.gl/NIWoK 자습서를 확인하십시오.

  4. ==============================

    4.저장소의 모든 파일은 실행 파일입니다. 명령을 복사하여 터미널에 붙여 넣기 만하면됩니다. 주소가 맞는지 확인하십시오. 즉 사용자는 무언가로 교체되어야합니다. 그 트릭을 할 것입니다.

    저장소의 모든 파일은 실행 파일입니다. 명령을 복사하여 터미널에 붙여 넣기 만하면됩니다. 주소가 맞는지 확인하십시오. 즉 사용자는 무언가로 교체되어야합니다. 그 트릭을 할 것입니다.

  5. from https://stackoverflow.com/questions/8501781/errors-while-running-hadoop by cc-by-sa and MIT license