복붙노트

[HADOOP] 마스터 노드의“start-all.sh”및“start-dfs.sh”가 슬레이브 노드 서비스를 시작하지 않습니까?

HADOOP

마스터 노드의“start-all.sh”및“start-dfs.sh”가 슬레이브 노드 서비스를 시작하지 않습니까?

하둡 마스터 노드의 / conf / slaves 파일을 슬레이브 노드의 호스트 이름으로 업데이트했지만 마스터에서 슬레이브를 시작할 수 없습니다. 슬레이브를 개별적으로 시작한 다음 5 노드 클러스터가 시작되어 실행 중입니다. 마스터 노드에서 단일 명령으로 전체 클러스터를 시작하려면 어떻게해야합니까?

또한 SecondaryNameNode가 모든 슬레이브에서 실행 중입니다. 그게 문제입니까? 그렇다면 슬레이브에서 어떻게 제거 할 수 있습니까? 하나의 NameNode가있는 클러스터에는 하나의 SecondaryNameNode 만 있어야한다고 생각합니다. 맞습니까?

고맙습니다!

해결법

  1. ==============================

    1.Apache Hadoop 3.0에서는 $ HADOOP_HOME / etc / hadoop / workers 파일을 사용하여 한 줄에 하나씩 슬레이브 노드를 추가하십시오.

    Apache Hadoop 3.0에서는 $ HADOOP_HOME / etc / hadoop / workers 파일을 사용하여 한 줄에 하나씩 슬레이브 노드를 추가하십시오.

  2. from https://stackoverflow.com/questions/48910606/start-all-sh-and-start-dfs-sh-from-master-node-do-not-start-the-slave-node-s by cc-by-sa and MIT license