[HADOOP] 하이브에 오류가 발생했습니다.
HADOOP하이브에 오류가 발생했습니다.
내가 ireport에 연결되면 하이브 셸에 표가 표시되면이 오류가 발생합니다.
해결법
-
==============================
1.Hive의 lib 디렉토리에 메타 데이터 db 용 JDBC 드라이버가 들어있는 jar 파일을 복사 했습니까?
Hive의 lib 디렉토리에 메타 데이터 db 용 JDBC 드라이버가 들어있는 jar 파일을 복사 했습니까?
예를 들어, MySQL을 사용하여 메타 데이터 DB를 보유하고 있다면,
mysql-connector-java-5.1.22-bin.jar를 $ HIVE_HOME / lib에 복사하십시오.
이 같은 오류가 나를 위해 고정.
-
==============================
2.하나의 가능성은 당신의 hadoop이 실행되고 있지 않다는 것입니다. 내 로컬에서 간단한 하나의 노드 hadoop 클러스터를 수행 할 때 이와 동일한 문제가 발생했습니다. 컴퓨터를 시작할 때마다 하이브가 연결되기 전에 수동으로 노드를 시작해야합니다.
하나의 가능성은 당신의 hadoop이 실행되고 있지 않다는 것입니다. 내 로컬에서 간단한 하나의 노드 hadoop 클러스터를 수행 할 때 이와 동일한 문제가 발생했습니다. 컴퓨터를 시작할 때마다 하이브가 연결되기 전에 수동으로 노드를 시작해야합니다.
$ HADOOP_HOME / bin / stop-all.sh를 실행 해보십시오.
출력에 노드를 중지 할 필요가 없다고 표시되면 hadoop이 실행되지 않았 음을 의미합니다.이 경우 실행됩니다.
$ HADOOP_HOME / bin / start-all.sh
그리고 나서 하이브로 너는 잘 가야한다.
(이것은 기본 Derby 데이터베이스를 사용하고있었습니다. 분명히 mysql을 사용하고 있다면 일부 커넥터 구성에서이 오류를 얻을 수도 있습니다 (다른 대답 참조).
편집하다: 내가 실제로 발견 한 또 다른 사실은 하이브를 시작할 때마다 하이브가 metastore_db 디렉토리를 만들어야하지만 하이브가 실행 된 경로에 하이브가 생성된다는 것입니다. 하이브를 실행하는 디렉토리에 쓰기 권한이 없으면 위의 오류가 발생할 수 있습니다. 이 문제를 해결하기 위해 hive-site.xml에서 설정할 수있는 설정이 있습니다.이 디렉토리는 상대적이지 않고 절대적인 것입니다.
여길 봐:
어디에서나 Hive를 실행하여 metastore_db를 만듭니다.
-
==============================
3.하이브에서는 오류 메시지가 훌륭합니다. conf / hive-site.xml에 creds를 추가 할 때 기존 사용자 이름 / 암호 요소를 알지 못했기 때문에 자신을 추가 할 때 사용되지 않았고 위의 동일한 메시지로 끝나게되었습니다.
하이브에서는 오류 메시지가 훌륭합니다. conf / hive-site.xml에 creds를 추가 할 때 기존 사용자 이름 / 암호 요소를 알지 못했기 때문에 자신을 추가 할 때 사용되지 않았고 위의 동일한 메시지로 끝나게되었습니다.
metatool 명령을 실행하면 stack-traces가 실행되고이 경우에는 실제 원인을 지적합니다. 이 도움이 다른 사람에게 도움이되기를 바랍니다.
mfellows@matt.mit /usr/local/hive-0.11.0-bin $ bin/metatool -listFSRoot Initializing HiveMetaTool.. 13/06/05 21:44:43 INFO metastore.ObjectStore: ObjectStore, initialize called 13/06/05 21:44:43 ERROR DataNucleus.Plugin: Bundle "org.eclipse.jdt.core" requires "org.eclipse.core.resources" but it cannot be resolved. 13/06/05 21:44:43 ERROR DataNucleus.Plugin: Bundle "org.eclipse.jdt.core" requires "org.eclipse.core.runtime" but it cannot be resolved. 13/06/05 21:44:43 ERROR DataNucleus.Plugin: Bundle "org.eclipse.jdt.core" requires "org.eclipse.text" but it cannot be resolved. 13/06/05 21:44:43 INFO DataNucleus.Persistence: Property datanucleus.cache.level2 unknown - will be ignored 13/06/05 21:44:43 INFO DataNucleus.Persistence: Property javax.jdo.option.NonTransactionalRead unknown - will be ignored 13/06/05 21:44:43 INFO DataNucleus.Persistence: ================= Persistence Configuration =============== 13/06/05 21:44:43 INFO DataNucleus.Persistence: DataNucleus Persistence Factory - Vendor: "DataNucleus" Version: "2.0.3" 13/06/05 21:44:43 INFO DataNucleus.Persistence: DataNucleus Persistence Factory initialised for datastore URL="jdbc:mysql://localhost/hive_metastore" driver="com.mysql.jdbc.Driver" userName="APP" 13/06/05 21:44:43 INFO DataNucleus.Persistence: =========================================================== 13/06/05 21:44:44 ERROR Datastore.Schema: Failed initialising database. Access denied for user 'APP'@'localhost' (using password: YES) org.datanucleus.exceptions.NucleusDataStoreException: Access denied for user 'APP'@'localhost' (using password: YES) at org.datanucleus.store.rdbms.ConnectionFactoryImpl$ManagedConnectionImpl.getConnection(ConnectionFactoryImpl.java:536)
-
==============================
4.일반적으로 Hive 메타 스토어 서비스가 제대로 시작되지 않았 음을 나타냅니다. 그러나 붙여 넣기 오류 메시지에는 문제의 정확한 원인을 찾을 수있는 충분한 정보가 없습니다. 실제로 다른 저자가 게시 한 답변이 특정 측면과 관련되어 있기 때문에이 오류로 이어질 수있는 많은 이유가 있습니다. 제 제안은 다음과 같습니다. - have --service metastore 명령을 실행하여보다 자세하고 타깃이 된 오류 메시지를 얻은 다음 그에 따라 문제를 해결하십시오. /tmp/user_name/hive.log 로그 파일도 참조 할 수 있습니다.
일반적으로 Hive 메타 스토어 서비스가 제대로 시작되지 않았 음을 나타냅니다. 그러나 붙여 넣기 오류 메시지에는 문제의 정확한 원인을 찾을 수있는 충분한 정보가 없습니다. 실제로 다른 저자가 게시 한 답변이 특정 측면과 관련되어 있기 때문에이 오류로 이어질 수있는 많은 이유가 있습니다. 제 제안은 다음과 같습니다. - have --service metastore 명령을 실행하여보다 자세하고 타깃이 된 오류 메시지를 얻은 다음 그에 따라 문제를 해결하십시오. /tmp/user_name/hive.log 로그 파일도 참조 할 수 있습니다.
-
==============================
5.하이브 콘솔이 제대로 종료되지 않으면 일반적으로이 예외가 발생한다고 들었습니다. 수정 사항 :
하이브 콘솔이 제대로 종료되지 않으면 일반적으로이 예외가 발생한다고 들었습니다. 수정 사항 :
jps 명령을 실행하고 "RunJar"프로세스를 찾아서 다음을 사용하여 종료하십시오. kill -9 명령
-
==============================
6.위의 JDBC 드라이버에 대한 답변 주셔서 감사합니다. 저는 Hive Metastore를 위해 오라클을 사용하고 있습니다 :
위의 JDBC 드라이버에 대한 답변 주셔서 감사합니다. 저는 Hive Metastore를 위해 오라클을 사용하고 있습니다 :
$ cp $ ORACLE_HOME / jdbc / lib / ojdbc6.jar $ HIVE_HOME / lib / ojdbc6.jar
from https://stackoverflow.com/questions/14452861/getting-error-in-hive by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 임팔라가 그것을 읽을 수 있도록 스파크 스트리밍의 출력물을 만드는 방법? (0) | 2019.07.14 |
---|---|
[HADOOP] Hadoop 수정 방법 경고 : Ubuntu에서 잘못된 반사 액세스 작업이 발생했습니다. (0) | 2019.07.14 |
[HADOOP] Hadoop gen1 대 Hadoop gen2 (0) | 2019.07.14 |
[HADOOP] Hadoop에서 웹 애플리케이션으로 파일 가져 오기 (0) | 2019.07.14 |
[HADOOP] kubernetes vs yarn / hadoop 생태계에 불꽃을 일으킨다. (0) | 2019.07.14 |