[HADOOP] hadoop 데몬을 시작하는 중 오류가 발생했습니다.
HADOOPhadoop 데몬을 시작하는 중 오류가 발생했습니다.
나는 우분투뿐만 아니라 hadoop에 익숙하지 않고 내 시스템에 (Ubuntu) Hadoop 2.2.0을 설치하려고합니다. start-all.sh 또는 start-dfs.sh를 사용하여 데몬을 시작하려고하면 "Command not found"라는 오류가 발생합니다. hadoop 그룹에서만 만든 사용자로이 명령을 실행했습니다.
> hduser@nitk-OptiPlex-9010:~/hadoop-2.2.0/sbin$ start-all.sh
> start-all.sh: command not found
누군가이 문제를 해결하기 위해 나를 도울 수 있습니까?
또한 core-site, hdfs-site xml 파일을 etc / hadoop 폴더 아래에 수정하려고 시도했을 때 core-site.xml ~, hdfs-site.xml ~ 파일이 생성되었습니다 (이름 끝에 틸드 기호가있는 새 파일 만들어졌습니다.) 내가 만든 새 파일을 삭제했습니다. 문제가 발생합니까?
해결법
-
==============================
1.아래 단계를 따르십시오. ==> hadoop 홈 디렉토리로 이동하십시오 : cd / usr / local / hadoop / ==> 데이터 노드와 namenode의 프로세스를 시작하십시오 : bin / hadoop namenode -format ==> 데몬 시작 : sbin / start-dfs.sh (시작 --all.sh는 가치가 떨어짐)
아래 단계를 따르십시오. ==> hadoop 홈 디렉토리로 이동하십시오 : cd / usr / local / hadoop / ==> 데이터 노드와 namenode의 프로세스를 시작하십시오 : bin / hadoop namenode -format ==> 데몬 시작 : sbin / start-dfs.sh (시작 --all.sh는 가치가 떨어짐)
희망은 당신을 도와줍니다 :)
-
==============================
2../start-all.sh를 작성하십시오.
./start-all.sh를 작성하십시오.
start-all.sh : 명령을 찾을 수 없다면
즉, 아직 실행 가능 모드가 아닙니다. chmod를 통해 실행 파일로 변경하십시오.
chmod +x *.sh
-
==============================
3.데몬을 시작하는 올바른 방법은 다음과 같습니다.
데몬을 시작하는 올바른 방법은 다음과 같습니다.
1- 명령 줄을 사용하여 hadoop 디렉토리로 이동합니다.
2 - 그러면 다음과 같이 데몬을 시작합니다 :
하지만 먼저 모든 datanode 및 namenode 파일을 삭제하여 namenode의 형식 외에도 깨끗한 환경으로 프로세스를 시작하는 것이 좋습니다.
희망이 너를 돕는다 !!
-
==============================
4.이 시도: 1.이 명령을 먼저 실행하십시오. chmod + x start-dfs.sh 2. 그 다음에 /.start-dfs.sh
이 시도: 1.이 명령을 먼저 실행하십시오. chmod + x start-dfs.sh 2. 그 다음에 /.start-dfs.sh
-
==============================
5.오류 : 명령을 찾을 수 없습니다.
오류 : 명령을 찾을 수 없습니다.
$ /home/user/Documents/installed/hadoop/sbin/start-all.sh start-all.sh command not found
해결책 : Hadoop 설치 위치로 이동 한 후 다음을 실행하십시오.
$ cd /home/user/Documents/installed/hadoop/sbin $ ./start-all.sh $ jps 12373 Jps 11823 SecondaryNameNode 11643 DataNode 12278 NodeManager 11974 ResourceManager 11499 NameNode
from https://stackoverflow.com/questions/22318205/error-while-starting-hadoop-daemons by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 일반적인 Hadoop 아키텍처와 MapR 아키텍처의 차이점 (0) | 2019.06.25 |
---|---|
[HADOOP] 다른 컴퓨터에 hadoop getmerge (0) | 2019.06.25 |
[HADOOP] hadoop hdfs 파일 시스템 이름 바꾸기 (0) | 2019.06.25 |
[HADOOP] Hadoop MapReduce에서 여러 개의 텍스트가 아닌 파일을 단일 맵에 제공 (0) | 2019.06.25 |
[HADOOP] 특정 큐에서 sqoop 작업 실행 (0) | 2019.06.25 |