복붙노트

[HADOOP] Hadoop : "start-all.sh"를 입력 한 후 루트 암호가 필요합니다.

HADOOP

Hadoop : "start-all.sh"를 입력 한 후 루트 암호가 필요합니다.

내 노트북에 Hadoop과 SSH를 설치했습니다. "ssh localhost"는 잘 동작합니다. HDFS를 포맷 한 후, 나는 hadoop을 시작하려했습니다.

munichong@GrindPad:~$ sudo /usr/sbin/start-all.sh
starting namenode, logging to /var/log/hadoop/root/hadoop-root-namenode-GrindPad.out
root@localhost's password: 
root@localhost's password: localhost: Permission denied, please try again.

localhost: Permission denied (publickey,password).

비밀번호가 필요합니다. 나의 역할은 "춘궁". 그러나 뭉치의 암호는 여기서 작동하지 않습니다. 여기, 내 역할은 "루트"로 변경되었습니다. 내가 여기서 뭔가를 놓쳤는 지 모르겠다.

아무도 나를 도울 수 있습니까?

감사!

해결법

  1. ==============================

    1.해결책:

    해결책:

    1) 암호없이 ssh 키 생성

    $ ssh-keygen -t rsa -P ""
    

    2) id_rsa.pub를 인증 된 키에 복사합니다.

    $  cat $HOME/.ssh/id_rsa.pub >> $HOME/.ssh/authorized_keys
    

    3) ssh localhost를 시작합니다.

    $ ssh localhost
    

    4) 이제 hadoop sbin 디렉토리로 가서 hadoop을 시작하십시오.

    $./start-all.sh 
    ./start-all.sh
    This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
    Starting namenodes on [localhost]
    localhost: starting namenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-namenode-amtex-desktop.out
    localhost: starting datanode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-datanode-amtex-desktop.out
    Starting secondary namenodes [0.0.0.0]
    0.0.0.0: starting secondarynamenode, logging to /home/amtex/Documents/installed/hadoop/logs/hadoop-amtex-secondarynamenode-amtex-desktop.out
    starting yarn daemons
    starting resourcemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-resourcemanager-amtex-desktop.out
    localhost: starting nodemanager, logging to /home/amtex/Documents/installed/hadoop/logs/yarn-amtex-nodemanager-amtex-desktop.out
    

    5) 암호 묻지 않음

    $ jps 
    12373 Jps
    11823 SecondaryNameNode
    11643 DataNode
    12278 NodeManager
    11974 ResourceManager
    11499 NameNode
    
  2. ==============================

    2.위와 같이 munichong은 사용자 (munichong @ GrindPad)입니다.

    위와 같이 munichong은 사용자 (munichong @ GrindPad)입니다.

    참고 : 때때로 로그 파일로 인해 다른 문제가 발생합니다.이 경우 / usr / local / hadoop / logs /에서 점 아웃 (.out) 파일 만 제거하십시오.

  3. ==============================

    3.나는 같은 문제에 부딪쳤다. Amar가 말했듯이 sudo로 실행중인 경우 hadoop은 루트 암호를 묻습니다. 루트 암호가없는 경우 다음을 사용하여 암호를 설정할 수 있습니다.

    나는 같은 문제에 부딪쳤다. Amar가 말했듯이 sudo로 실행중인 경우 hadoop은 루트 암호를 묻습니다. 루트 암호가없는 경우 다음을 사용하여 암호를 설정할 수 있습니다.

     sudo passwd
    

    아래 URL은 사용자 관리에 대한 자세한 정보를 제공합니다.

    https://help.ubuntu.com/12.04/serverguide/user-management.html

  4. ==============================

    4.SSH 인증서 생성 및 설정 Hadoop은 노드, 즉 원격 시스템과 로컬 시스템을 관리하기 위해 SSH 액세스가 필요합니다. Hadoop을 단일 노드로 설정하려면 localhost에 대한 SSH 액세스를 구성해야합니다.

    SSH 인증서 생성 및 설정 Hadoop은 노드, 즉 원격 시스템과 로컬 시스템을 관리하기 위해 SSH 액세스가 필요합니다. Hadoop을 단일 노드로 설정하려면 localhost에 대한 SSH 액세스를 구성해야합니다.

    따라서 우리는 SSH를 설치하여 시스템에서 실행하고 SSH 공개 키 인증을 허용하도록 구성해야합니다.

    Hadoop은 일반적으로 사용자가 암호를 입력해야하는 SSH (노드 액세스)를 사용합니다. 그러나 다음 명령을 사용하여 SSH 인증서를 만들고 설정하면이 요구 사항을 제거 할 수 있습니다. 파일 이름을 물으면 그냥 공란으로 남겨두고 Enter 키를 눌러 계속하십시오.

    이 사이트를 확인하십시오.

  5. ==============================

    5.루트로 로그인하여 start-all.sh를 실행 한 것 같습니다. 대신 디렉토리 $ SPARK_HOME의 소유자로 로그인하고 spark 's를 호출하십시오 start-all.sh.

    루트로 로그인하여 start-all.sh를 실행 한 것 같습니다. 대신 디렉토리 $ SPARK_HOME의 소유자로 로그인하고 spark 's를 호출하십시오 start-all.sh.

    (또는) 사용자 hadoop이 $ SPARK_HOME 디렉토리의 소유자이고 root로 현재 로그인되어 있으면 명령은 다음과 같습니다.

    sudo -u hadoop -c start-all.sh
    

    인수: a) PATH는 디렉토리 $ SPARK_HOME / bin에 대한 참조를 가지고있다. b) 인증서 기반 인증이 사용자 hadoop에 대해 구성됩니다.

  6. ==============================

    6.슈퍼 유저 또는 루트에 로그인하십시오.

    슈퍼 유저 또는 루트에 로그인하십시오.

    :~ su
    
    Password:
    

    사용자에게 권한을 부여하다.

    :~ sudo chown -R <log in user> /usr/local/hadoop/
    

    예를 들어 사용자 로그인 : munichong

    HADOOP_HOME = / usr / local / hadoop /

  7. from https://stackoverflow.com/questions/15195048/hadoop-require-roots-password-after-enter-start-all-sh by cc-by-sa and MIT license