[HADOOP] Hadoop : "start-all.sh"를 입력 한 후 루트 암호가 필요합니다.
HADOOPHadoop : "start-all.sh"를 입력 한 후 루트 암호가 필요합니다.
내 노트북에 Hadoop과 SSH를 설치했습니다. "ssh localhost"는 잘 동작합니다. HDFS를 포맷 한 후, 나는 hadoop을 시작하려했습니다.
munichong@GrindPad:~$ sudo /usr/sbin/start-all.sh
starting namenode, logging to /var/log/hadoop/root/hadoop-root-namenode-GrindPad.out
root@localhost's password:
root@localhost's password: localhost: Permission denied, please try again.
localhost: Permission denied (publickey,password).
비밀번호가 필요합니다. 나의 역할은 "춘궁". 그러나 뭉치의 암호는 여기서 작동하지 않습니다. 여기, 내 역할은 "루트"로 변경되었습니다. 내가 여기서 뭔가를 놓쳤는 지 모르겠다.
아무도 나를 도울 수 있습니까?
감사!
해결법
-
==============================
1.해결책:
해결책:
1) 암호없이 ssh 키 생성
$ ssh-keygen -t rsa -P ""
2) id_rsa.pub를 인증 된 키에 복사합니다.
$ cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
3) ssh localhost를 시작합니다.
$ ssh localhost
4) 이제 hadoop sbin 디렉토리로 가서 hadoop을 시작하십시오.
$./start-all.sh ./start-all.sh This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh Starting namenodes on [localhost] localhost: starting namenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-namenode-amtex-desktop.out localhost: starting datanode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-datanode-amtex-desktop.out Starting secondary namenodes [0.0.0.0] 0.0.0.0: starting secondarynamenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-secondarynamenode-amtex-desktop.out starting yarn daemons starting resourcemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-resourcemanager-amtex-desktop.out localhost: starting nodemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-nodemanager-amtex-desktop.out
5) 암호 묻지 않음
$ jps 12373 Jps 11823 SecondaryNameNode 11643 DataNode 12278 NodeManager 11974 ResourceManager 11499 NameNode
-
==============================
2.위와 같이 munichong은 사용자 (munichong @ GrindPad)입니다.
위와 같이 munichong은 사용자 (munichong @ GrindPad)입니다.
참고 : 때때로 로그 파일로 인해 다른 문제가 발생합니다.이 경우 / usr / local / hadoop / logs /에서 점 아웃 (.out) 파일 만 제거하십시오.
-
==============================
3.나는 같은 문제에 부딪쳤다. Amar가 말했듯이 sudo로 실행중인 경우 hadoop은 루트 암호를 묻습니다. 루트 암호가없는 경우 다음을 사용하여 암호를 설정할 수 있습니다.
나는 같은 문제에 부딪쳤다. Amar가 말했듯이 sudo로 실행중인 경우 hadoop은 루트 암호를 묻습니다. 루트 암호가없는 경우 다음을 사용하여 암호를 설정할 수 있습니다.
sudo passwd
아래 URL은 사용자 관리에 대한 자세한 정보를 제공합니다.
https://help.ubuntu.com/12.04/serverguide/user-management.html
-
==============================
4.SSH 인증서 생성 및 설정 Hadoop은 노드, 즉 원격 시스템과 로컬 시스템을 관리하기 위해 SSH 액세스가 필요합니다. Hadoop을 단일 노드로 설정하려면 localhost에 대한 SSH 액세스를 구성해야합니다.
SSH 인증서 생성 및 설정 Hadoop은 노드, 즉 원격 시스템과 로컬 시스템을 관리하기 위해 SSH 액세스가 필요합니다. Hadoop을 단일 노드로 설정하려면 localhost에 대한 SSH 액세스를 구성해야합니다.
따라서 우리는 SSH를 설치하여 시스템에서 실행하고 SSH 공개 키 인증을 허용하도록 구성해야합니다.
Hadoop은 일반적으로 사용자가 암호를 입력해야하는 SSH (노드 액세스)를 사용합니다. 그러나 다음 명령을 사용하여 SSH 인증서를 만들고 설정하면이 요구 사항을 제거 할 수 있습니다. 파일 이름을 물으면 그냥 공란으로 남겨두고 Enter 키를 눌러 계속하십시오.
이 사이트를 확인하십시오.
-
==============================
5.루트로 로그인하여 start-all.sh를 실행 한 것 같습니다. 대신 디렉토리 $ SPARK_HOME의 소유자로 로그인하고 spark 's를 호출하십시오 start-all.sh.
루트로 로그인하여 start-all.sh를 실행 한 것 같습니다. 대신 디렉토리 $ SPARK_HOME의 소유자로 로그인하고 spark 's를 호출하십시오 start-all.sh.
(또는) 사용자 hadoop이 $ SPARK_HOME 디렉토리의 소유자이고 root로 현재 로그인되어 있으면 명령은 다음과 같습니다.
sudo -u hadoop -c start-all.sh
인수: a) PATH는 디렉토리 $ SPARK_HOME / bin에 대한 참조를 가지고있다. b) 인증서 기반 인증이 사용자 hadoop에 대해 구성됩니다.
-
==============================
6.슈퍼 유저 또는 루트에 로그인하십시오.
슈퍼 유저 또는 루트에 로그인하십시오.
:~ su Password:
사용자에게 권한을 부여하다.
:~ sudo chown -R <log in user> /usr/local/hadoop/
예를 들어 사용자 로그인 : munichong
HADOOP_HOME = / usr / local / hadoop /
from https://stackoverflow.com/questions/15195048/hadoop-require-roots-password-after-enter-start-all-sh by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 하이브는에서 지원하지 않습니다. 다음 쿼리는 어떻게 작성합니까? (0) | 2019.06.08 |
---|---|
[HADOOP] Hadoop MapReduce를 사용하여 정렬 된 단어 수 (0) | 2019.06.08 |
[HADOOP] Hadoop의 Sort Comparator와 Group Comparator의 차이점은 무엇입니까? (0) | 2019.06.07 |
[HADOOP] hbase는 기존 테이블을 찾을 수 없습니다. (0) | 2019.06.07 |
[HADOOP] 하이브 테이블 추가 또는 삭제 열 변경 (0) | 2019.06.07 |