복붙노트

[HADOOP] 오류 hive.HiveConfig : org.apache.hadoop.hive.conf.HiveConf를로드 할 수 없습니다. HIVE_CONF _DIR이 올바르게 설정되었는지 확인하십시오.

HADOOP

오류 hive.HiveConfig : org.apache.hadoop.hive.conf.HiveConf를로드 할 수 없습니다. HIVE_CONF _DIR이 올바르게 설정되었는지 확인하십시오.

하이브로 sqoop에서 데이터를 가져 오려고합니다.

MySQL

use sample;

create table forhive(   id int auto_increment,
    firstname varchar(36),
    lastname varchar(36),
    primary key(id)
    );    

insert into  forhive(firstname, lastname) values("sample","singh");

select * from forhive;

이것은 내가 사용하고있는 Sqoop 명령어이다 (버전 1.4.7).

sqoop import --connect jdbc:mysql://********:3306/sample 

--table forhive --split-by id --columns id,firstname,lastname  

--target-dir /home/programmeur_v/forhive 

--hive-import --create-hive-table --hive-table sqp.forhive --username vaibhav -P

이것은 내가 얻는 오류이다.

오류 기록

내가 같은 에러에 대해 구글을 한 후에도 bashrc에 HIVE_CONF_DIR을 추가했다.

모든 Hadoop 서비스도 실행됩니다.

나는 여기서 어떤 실수를하고 있는지 알 수 없다. 안내해주세요!

해결법

  1. ==============================

    1.인터넷을 통해 "hive-common-0.10.0.jar"파일을 다운로드하십시오. 이것을 "sqoop / lib"폴더에 넣으십시오. 이 솔루션은 나를 위해 일했습니다.

    인터넷을 통해 "hive-common-0.10.0.jar"파일을 다운로드하십시오. 이것을 "sqoop / lib"폴더에 넣으십시오. 이 솔루션은 나를 위해 일했습니다.

  2. ==============================

    2.hive-common-0.10.0.jar 파일을 다운로드하여 $ SQOOP_HOME / lib 폴더에 복사해야합니다.

    hive-common-0.10.0.jar 파일을 다운로드하여 $ SQOOP_HOME / lib 폴더에 복사해야합니다.

  3. ==============================

    3..bash_profile을 편집 한 다음 HADOOP_CLASSPATH를 추가하십시오

    .bash_profile을 편집 한 다음 HADOOP_CLASSPATH를 추가하십시오

    vim ~ / .bash_profile

    HADOOP_CLASSPATH = $ HADOOP_CLASSPATH 내보내기 : $ HIVE_HOME / lib / *

    소스 ~ / .bash_profile

  4. ==============================

    4.다음을 사용하여 $ HIVE_HOME / lib 디렉토리로 이동하십시오. cd $ HIVE_HOME / lib

    다음을 사용하여 $ HIVE_HOME / lib 디렉토리로 이동하십시오. cd $ HIVE_HOME / lib

    그런 다음 hive-common-x.x.x.jar를 복사하여 다음을 사용하여 $ SQOOP_HOME / lib에 붙여 넣으십시오.

    cp hive-common-x.x.x.jar $ SQOOP_HOME / lib

  5. ==============================

    5.다음 명령을 사용하여 MySQL에서 하이브로 데이터를 가져 오려고 할 때 동일한 문제가 발생합니다.

    다음 명령을 사용하여 MySQL에서 하이브로 데이터를 가져 오려고 할 때 동일한 문제가 발생합니다.

    sqoop import --connect jdbc:mysql://localhost:3306/sqoop --username root --password z*****3 --table users -m 1 --hive-home /opt/hive --hive-import --hive-overwrite
    

    마지막으로 이러한 환경 변수가 완벽하게 작동합니다.

    export HIVE_HOME=/opt/hive
    export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*
    export HIVE_CONF_DIR=$HIVE_HOME/conf
    
  6. from https://stackoverflow.com/questions/51661049/error-hive-hiveconfig-could-not-load-org-apache-hadoop-hive-conf-hiveconf-make by cc-by-sa and MIT license