[HADOOP] 오류 hive.HiveConfig : org.apache.hadoop.hive.conf.HiveConf를로드 할 수 없습니다. HIVE_CONF _DIR이 올바르게 설정되었는지 확인하십시오.
HADOOP오류 hive.HiveConfig : org.apache.hadoop.hive.conf.HiveConf를로드 할 수 없습니다. HIVE_CONF _DIR이 올바르게 설정되었는지 확인하십시오.
하이브로 sqoop에서 데이터를 가져 오려고합니다.
MySQL
use sample;
create table forhive( id int auto_increment,
firstname varchar(36),
lastname varchar(36),
primary key(id)
);
insert into forhive(firstname, lastname) values("sample","singh");
select * from forhive;
이것은 내가 사용하고있는 Sqoop 명령어이다 (버전 1.4.7).
sqoop import --connect jdbc:mysql://********:3306/sample
--table forhive --split-by id --columns id,firstname,lastname
--target-dir /home/programmeur_v/forhive
--hive-import --create-hive-table --hive-table sqp.forhive --username vaibhav -P
이것은 내가 얻는 오류이다.
오류 기록
내가 같은 에러에 대해 구글을 한 후에도 bashrc에 HIVE_CONF_DIR을 추가했다.
모든 Hadoop 서비스도 실행됩니다.
나는 여기서 어떤 실수를하고 있는지 알 수 없다. 안내해주세요!
해결법
-
==============================
1.인터넷을 통해 "hive-common-0.10.0.jar"파일을 다운로드하십시오. 이것을 "sqoop / lib"폴더에 넣으십시오. 이 솔루션은 나를 위해 일했습니다.
인터넷을 통해 "hive-common-0.10.0.jar"파일을 다운로드하십시오. 이것을 "sqoop / lib"폴더에 넣으십시오. 이 솔루션은 나를 위해 일했습니다.
-
==============================
2.hive-common-0.10.0.jar 파일을 다운로드하여 $ SQOOP_HOME / lib 폴더에 복사해야합니다.
hive-common-0.10.0.jar 파일을 다운로드하여 $ SQOOP_HOME / lib 폴더에 복사해야합니다.
-
==============================
3..bash_profile을 편집 한 다음 HADOOP_CLASSPATH를 추가하십시오
.bash_profile을 편집 한 다음 HADOOP_CLASSPATH를 추가하십시오
vim ~ / .bash_profile
HADOOP_CLASSPATH = $ HADOOP_CLASSPATH 내보내기 : $ HIVE_HOME / lib / *
소스 ~ / .bash_profile
-
==============================
4.다음을 사용하여 $ HIVE_HOME / lib 디렉토리로 이동하십시오. cd $ HIVE_HOME / lib
다음을 사용하여 $ HIVE_HOME / lib 디렉토리로 이동하십시오. cd $ HIVE_HOME / lib
그런 다음 hive-common-x.x.x.jar를 복사하여 다음을 사용하여 $ SQOOP_HOME / lib에 붙여 넣으십시오.
cp hive-common-x.x.x.jar $ SQOOP_HOME / lib
-
==============================
5.다음 명령을 사용하여 MySQL에서 하이브로 데이터를 가져 오려고 할 때 동일한 문제가 발생합니다.
다음 명령을 사용하여 MySQL에서 하이브로 데이터를 가져 오려고 할 때 동일한 문제가 발생합니다.
sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username root --password z*****3 --table users -m 1 --hive-home /opt/hive --hive-import --hive-overwrite
마지막으로 이러한 환경 변수가 완벽하게 작동합니다.
export HIVE_HOME=/opt/hive export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/* export HIVE_CONF_DIR=$HIVE_HOME/conf
from https://stackoverflow.com/questions/51661049/error-hive-hiveconfig-could-not-load-org-apache-hadoop-hive-conf-hiveconf-make by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 아파치 Zeppelin 던지고 NullPointerException 오류 (0) | 2019.08.01 |
---|---|
[HADOOP] 작업 추적기 및 작업 추적기가 Hadoop에서 실행되고 있지 않습니까? (0) | 2019.08.01 |
[HADOOP] 하이브의 LeaseExpiredException (0) | 2019.08.01 |
[HADOOP] spark에서 구조체를 UDAF에 전달하십시오. (0) | 2019.08.01 |
[HADOOP] Hadoop 클라이언트와 클러스터 분리 (0) | 2019.08.01 |