[HADOOP] 하이브 설치 후 Hadoop (로컬 및 호스트 대상이 일치하지 않음)
HADOOP하이브 설치 후 Hadoop (로컬 및 호스트 대상이 일치하지 않음)
우분투를 단일 노드 클러스터로 실행하고 단어 수를 실행하는 랩톱에 Hadoop 2.2를 설치했습니다. 그 후 하이브를 설치하고 하둡이 오류를주기 시작했습니다.
hdfs dfs -ls throws IOException : localhost is "utbuntu/127.0.1.1 and destination host is localhost:9000"
내 호스트 파일에서 아래 두 항목을 발견했습니다.
127.0.0.1 localhost
127.0.1.1 ubuntu
#and some IPv6 entries...
내 질문은 하이브 구성 후 오류를주는 이유는 무엇이며 솔루션은 무엇입니까? 어떤 도움이라도 대단히 감사합니다.
감사!
해결법
-
==============================
1.원래 IOException에는 오타가있는 것 같습니다. 올바른 호스트 이름인지 또는 복사 - 붙여 넣기 오류인지 확인할 수 있습니까?
원래 IOException에는 오타가있는 것 같습니다. 올바른 호스트 이름인지 또는 복사 - 붙여 넣기 오류인지 확인할 수 있습니까?
etc / hosts configs는 약간의 시행 착오를 거쳐 Hadoop 2.2.0 클러스터 설정을 알아 냈지만 호스트 이름에 대한 127.0.1.1 할당을 모두 제거하고 실제 IP를 시스템 이름에 할당하면 작동합니다. 예 :
마스터 (NameNode)에 대한 내 / etc / hosts가 다음과 같이 보이도록 2 노드 클러스터가 있습니다.
127.0.0.1 localhost #127.0.1.1 myhostname 192.168.1.100 myhostname 192.168.1.100 master
/usr/local/hadoop/etc/hadoop/core-site.xml에는 다음 항목이 있습니다.
<property> <name>fs.default.name</name> <value>hdfs://master:9000</value> </property>
주목해야 할 것은 myhostname을 127.0.1.1 연관에 주석 처리했다는 것입니다.
-
==============================
2.내 컴퓨터가 포트 9000으로 php-fpm을 시작했기 때문에이 문제가 발생하여 php-fpm을 죽인 다음 다시 시작하는 것이 좋습니다.
내 컴퓨터가 포트 9000으로 php-fpm을 시작했기 때문에이 문제가 발생하여 php-fpm을 죽인 다음 다시 시작하는 것이 좋습니다.
from https://stackoverflow.com/questions/20161078/hadoop-local-and-host-destination-do-not-match-after-installing-hive by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] MapReduce 작업이 원격 데이터에 액세스하는 것을 제한 할 수 있습니까? (0) | 2019.06.26 |
---|---|
[HADOOP] Hiber와 Hiber를 통합하기 : Hbase 테이블 등록하기 (0) | 2019.06.26 |
[HADOOP] 왜 hbase에서 hbase / lib 폴더를 유지해야합니까? (0) | 2019.06.26 |
[HADOOP] 프로그램의 hadoop 시작 오류 : PriviledgedActionException (0) | 2019.06.26 |
[HADOOP] 스파크 클러스터 모드에서 제 플린 실행 (0) | 2019.06.26 |