복붙노트

[HADOOP] 하이브 설치 후 Hadoop (로컬 및 호스트 대상이 일치하지 않음)

HADOOP

하이브 설치 후 Hadoop (로컬 및 호스트 대상이 일치하지 않음)

우분투를 단일 노드 클러스터로 실행하고 단어 수를 실행하는 랩톱에 Hadoop 2.2를 설치했습니다. 그 후 하이브를 설치하고 하둡이 오류를주기 시작했습니다.

hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000"

내 호스트 파일에서 아래 두 항목을 발견했습니다.

127.0.0.1 localhost
127.0.1.1 ubuntu
#and some IPv6 entries...

내 질문은 하이브 구성 후 오류를주는 이유는 무엇이며 솔루션은 무엇입니까? 어떤 도움이라도 대단히 감사합니다.

감사!

해결법

  1. ==============================

    1.원래 IOException에는 오타가있는 것 같습니다. 올바른 호스트 이름인지 또는 복사 - 붙여 넣기 오류인지 확인할 수 있습니까?

    원래 IOException에는 오타가있는 것 같습니다. 올바른 호스트 이름인지 또는 복사 - 붙여 넣기 오류인지 확인할 수 있습니까?

    etc / hosts configs는 약간의 시행 착오를 거쳐 Hadoop 2.2.0 클러스터 설정을 알아 냈지만 호스트 이름에 대한 127.0.1.1 할당을 모두 제거하고 실제 IP를 시스템 이름에 할당하면 작동합니다. 예 :

    마스터 (NameNode)에 대한 내 / etc / hosts가 다음과 같이 보이도록 2 노드 클러스터가 있습니다.

    127.0.0.1   localhost
    #127.0.1.1  myhostname
    192.168.1.100   myhostname
    192.168.1.100   master
    

    /usr/local/hadoop/etc/hadoop/core-site.xml에는 다음 항목이 있습니다.

    <property>
       <name>fs.default.name</name>
       <value>hdfs://master:9000</value>
     </property>
    

    주목해야 할 것은 myhostname을 127.0.1.1 연관에 주석 처리했다는 것입니다.

  2. ==============================

    2.내 컴퓨터가 포트 9000으로 php-fpm을 시작했기 때문에이 문제가 발생하여 php-fpm을 죽인 다음 다시 시작하는 것이 좋습니다.

    내 컴퓨터가 포트 9000으로 php-fpm을 시작했기 때문에이 문제가 발생하여 php-fpm을 죽인 다음 다시 시작하는 것이 좋습니다.

  3. from https://stackoverflow.com/questions/20161078/hadoop-local-and-host-destination-do-not-match-after-installing-hive by cc-by-sa and MIT license