[HADOOP] 마스터 노드의“start-all.sh”및“start-dfs.sh”가 슬레이브 노드 서비스를 시작하지 않습니까?
HADOOP마스터 노드의“start-all.sh”및“start-dfs.sh”가 슬레이브 노드 서비스를 시작하지 않습니까?
하둡 마스터 노드의 / conf / slaves 파일을 슬레이브 노드의 호스트 이름으로 업데이트했지만 마스터에서 슬레이브를 시작할 수 없습니다. 슬레이브를 개별적으로 시작한 다음 5 노드 클러스터가 시작되어 실행 중입니다. 마스터 노드에서 단일 명령으로 전체 클러스터를 시작하려면 어떻게해야합니까?
또한 SecondaryNameNode가 모든 슬레이브에서 실행 중입니다. 그게 문제입니까? 그렇다면 슬레이브에서 어떻게 제거 할 수 있습니까? 하나의 NameNode가있는 클러스터에는 하나의 SecondaryNameNode 만 있어야한다고 생각합니다. 맞습니까?
고맙습니다!
해결법
-
==============================
1.Apache Hadoop 3.0에서는 $ HADOOP_HOME / etc / hadoop / workers 파일을 사용하여 한 줄에 하나씩 슬레이브 노드를 추가하십시오.
Apache Hadoop 3.0에서는 $ HADOOP_HOME / etc / hadoop / workers 파일을 사용하여 한 줄에 하나씩 슬레이브 노드를 추가하십시오.
from https://stackoverflow.com/questions/48910606/start-all-sh-and-start-dfs-sh-from-master-node-do-not-start-the-slave-node-s by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] HBase 맵 전용 행 삭제 (0) | 2019.08.07 |
---|---|
[HADOOP] hadoop 스트리밍 : EMR에서 모듈 가져 오기 (0) | 2019.08.07 |
[HADOOP] 원사 클러스터에서 Spark 작업 제출 (0) | 2019.08.07 |
[HADOOP] 왜 hadoop을 실행할 때 데이터 노드가 종료됩니까? (0) | 2019.08.07 |
[HADOOP] localhost : 오류 : 데이터 노드 프로세스의 우선 순위를 설정할 수 없습니다 32156 (0) | 2019.08.07 |