복붙노트

[HADOOP] hadoop 데몬을 시작하는 중 오류가 발생했습니다.

HADOOP

hadoop 데몬을 시작하는 중 오류가 발생했습니다.

나는 우분투뿐만 아니라 hadoop에 익숙하지 않고 내 시스템에 (Ubuntu) Hadoop 2.2.0을 설치하려고합니다. start-all.sh 또는 start-dfs.sh를 사용하여 데몬을 시작하려고하면 "Command not found"라는 오류가 발생합니다. hadoop 그룹에서만 만든 사용자로이 명령을 실행했습니다.

> hduser@nitk-OptiPlex-9010:~/hadoop-2.2.0/sbin$ start-all.sh
> start-all.sh: command not found

누군가이 문제를 해결하기 위해 나를 도울 수 있습니까?

또한 core-site, hdfs-site xml 파일을 etc / hadoop 폴더 아래에 수정하려고 시도했을 때 core-site.xml ~, hdfs-site.xml ~ 파일이 생성되었습니다 (이름 끝에 틸드 기호가있는 새 파일 만들어졌습니다.) 내가 만든 새 파일을 삭제했습니다. 문제가 발생합니까?

해결법

  1. ==============================

    1.아래 단계를 따르십시오. ==> hadoop 홈 디렉토리로 이동하십시오 : cd / usr / local / hadoop / ==> 데이터 노드와 namenode의 프로세스를 시작하십시오 : bin / hadoop namenode -format            ==> 데몬 시작 : sbin / start-dfs.sh (시작 --all.sh는 가치가 떨어짐)

    아래 단계를 따르십시오. ==> hadoop 홈 디렉토리로 이동하십시오 : cd / usr / local / hadoop / ==> 데이터 노드와 namenode의 프로세스를 시작하십시오 : bin / hadoop namenode -format            ==> 데몬 시작 : sbin / start-dfs.sh (시작 --all.sh는 가치가 떨어짐)

    희망은 당신을 도와줍니다 :)

  2. ==============================

    2../start-all.sh를 작성하십시오.

    ./start-all.sh를 작성하십시오.

    start-all.sh : 명령을 찾을 수 없다면

    즉, 아직 실행 가능 모드가 아닙니다. chmod를 통해 실행 파일로 변경하십시오.

    chmod +x *.sh
    
  3. ==============================

    3.데몬을 시작하는 올바른 방법은 다음과 같습니다.

    데몬을 시작하는 올바른 방법은 다음과 같습니다.

    1- 명령 줄을 사용하여 hadoop 디렉토리로 이동합니다.

    2 - 그러면 다음과 같이 데몬을 시작합니다 :

    하지만 먼저 모든 datanode 및 namenode 파일을 삭제하여 namenode의 형식 외에도 깨끗한 환경으로 프로세스를 시작하는 것이 좋습니다.

    희망이 너를 돕는다 !!

  4. ==============================

    4.이 시도: 1.이 명령을 먼저 실행하십시오. chmod + x start-dfs.sh 2. 그 다음에 /.start-dfs.sh

    이 시도: 1.이 명령을 먼저 실행하십시오. chmod + x start-dfs.sh 2. 그 다음에 /.start-dfs.sh

  5. ==============================

    5.오류 : 명령을 찾을 수 없습니다.

    오류 : 명령을 찾을 수 없습니다.

    $ /home/user/Documents/installed/hadoop/sbin/start-all.sh
     start-all.sh command not found
    

    해결책 : Hadoop 설치 위치로 이동 한 후 다음을 실행하십시오.

    $ cd /home/user/Documents/installed/hadoop/sbin
    $ ./start-all.sh 
    $ jps
    
    12373 Jps
    11823 SecondaryNameNode
    11643 DataNode
    12278 NodeManager
    11974 ResourceManager
    11499 NameNode
    
  6. from https://stackoverflow.com/questions/22318205/error-while-starting-hadoop-daemons by cc-by-sa and MIT license