복붙노트

[HADOOP] OSX의 Hadoop "SCDynamicStore에서 영역 정보를로드 할 수 없습니다"

HADOOP

OSX의 Hadoop "SCDynamicStore에서 영역 정보를로드 할 수 없습니다"

OSX 10.7에서 Hadoop을 시작할 때이 오류가 발생합니다.

Hadoop의 기능에 문제가있는 것으로 보입니다.

해결법

  1. ==============================

    1.HADOOP-7489의 Matthew Buckett의 제안이 저에게 효과적이었습니다. hadoop-env.sh 파일에 다음을 추가하십시오 :

    HADOOP-7489의 Matthew Buckett의 제안이 저에게 효과적이었습니다. hadoop-env.sh 파일에 다음을 추가하십시오 :

    export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"
    
  2. ==============================

    2.이 업데이트 (그리고 Java 1.7에 대한 David Williams의 요지)를 해결하기 위해 .realm 및 .kdc 속성을 설정하는 것만으로는 문제가되는 메시지를 막지 못했습니다.

    이 업데이트 (그리고 Java 1.7에 대한 David Williams의 요지)를 해결하기 위해 .realm 및 .kdc 속성을 설정하는 것만으로는 문제가되는 메시지를 막지 못했습니다.

    그러나 메시지를 생략 한 소스 파일을 검토하여 .krb5.conf 등록 정보를 / dev / null로 설정하면 메시지를 표시하지 않을 수 있습니다. 분명히 실제로 krb5 구성이있는 경우 실제 경로를 지정하는 것이 좋습니다.

    총 내 hadoop-env.sh 스 니펫은 다음과 같습니다.

    HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.realm= -Djava.security.krb5.kdc="
    HADOOP_OPTS="${HADOOP_OPTS} -Djava.security.krb5.conf=/dev/null"
    
  3. ==============================

    3.OS X 10.8.2, Java 버전 1.7.0_21에서 동일한 문제가 발생합니다. 불행히도, 위의 해결책은이 버전의 문제를 해결하지 못합니다.

    OS X 10.8.2, Java 버전 1.7.0_21에서 동일한 문제가 발생합니다. 불행히도, 위의 해결책은이 버전의 문제를 해결하지 못합니다.

    편집 : 나는 이것에 대한 해결책을 발견, 여기에 봤다 힌트를 기반으로. hadoop-env.sh 파일에서 JAVA_HOME 설정을 다음과 같이 변경하십시오.

    export JAVA_HOME=`/usr/libexec/java_home -v 1.6`
    

    (무덤 따옴표는 여기에 유의하십시오.)

  4. ==============================

    4.참고로 다음을 지정하여이 작업을 단순화 할 수 있습니다.

    참고로 다음을 지정하여이 작업을 단순화 할 수 있습니다.

    export HADOOP_OPTS="-Djava.security.krb5.realm= -Djava.security.krb5.kdc="
    

    이것은 HADOOP-7489에도 언급되어 있습니다.

  5. ==============================

    5.나는 MacOS에서 비슷한 문제를 겪었고 다른 조합을 시도한 후에 보편적으로 (Hadoop 1.2와 2.2 모두) 나를 위해 일했다.

    나는 MacOS에서 비슷한 문제를 겪었고 다른 조합을 시도한 후에 보편적으로 (Hadoop 1.2와 2.2 모두) 나를 위해 일했다.

    $ HADOOP_HOME / conf / hadoop-env.sh에서 다음 줄을 설정하십시오 :

    # Set Hadoop-specific environment variables here.
    export HADOOP_OPTS="-Djava.security.krb5.realm= -Djava.security.krb5.kdc="
    
    # The java implementation to use.
    export JAVA_HOME=`/usr/libexec/java_home -v 1.6`
    

    희망이 도움이 될 것입니다

  6. ==============================

    6.또한

    또한

    YARN_OPTS = "$ YARN_OPTS -Djava.security.krb5.realm = OX.AC.UK -Djava.security.krb5.kdc = kdc0.ox.ac.uk : kdc1.ox.ac.uk"

    cdh4.1.3에서 start-yarn.sh (또는 start-all.sh)를 실행하기 전에

  7. ==============================

    7.Eclipse에서 MapReduce를 디버깅 할 때이 오류가 발생했지만 빨간색 청어였습니다. 진짜 문제는 디버깅 매개 변수를 JAVA_OPTS에 추가하여 원격 디버깅을 수행해야한다는 것이 었습니다.

    Eclipse에서 MapReduce를 디버깅 할 때이 오류가 발생했지만 빨간색 청어였습니다. 진짜 문제는 디버깅 매개 변수를 JAVA_OPTS에 추가하여 원격 디버깅을 수행해야한다는 것이 었습니다.

    -Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=1044
    

    그런 다음 포트 1044를 가리키는 디버그 구성에서 새로운 "원격 Java 응용 프로그램"프로파일을 만듭니다.

    이 기사에는 디버깅 측면에 대한 자세한 정보가 있습니다. Solr에 대해 이야기하고 있지만 Hadoop과 거의 동일하게 작동합니다. 문제가 있으시면 아래에 메시지를 남겨 두시면 도와 드리겠습니다.

  8. from https://stackoverflow.com/questions/7134723/hadoop-on-osx-unable-to-load-realm-info-from-scdynamicstore by cc-by-sa and MIT license