[HADOOP] 분할 하이브 테이블 Sqoop을 수출
HADOOP분할 하이브 테이블 Sqoop을 수출
분할 된 하이브 테이블을 수출 할 때 나는 몇 가지 문제가 발생했습니다. 이 완벽하게 지원되어 (나는 그것을 위해 Google에 노력하고 하나 JIRA 티켓을 발견)?
sqoop export --connect jdbc:mysql://localhost/testdb --table sales --export-dir /user/hive/warehouse/sales --direct
그리고 여기에 내가 무엇을 얻을 수 있습니다 :
00000_2, Status : FAILED
java.io.FileNotFoundException: File does not exist: /user/hive/warehouse/sales/day=2013-04-01
달리는
hadoop fs -ls /user/hive/warehouse/sales/day=2013-04-01
이 디렉토리가 실제로 존재한다는 것을 보여줍니다.
에 대한 모든 아이디어를 어떻게이 문제를 해결하려면? 미리 감사드립니다, 디디
해결법
-
==============================
1.Sqoop을 현재 재귀 디렉토리에 대한 수출을 지원하지 않습니다. JIRA의 Sqoop을-951은 지원을 추가하는 데있다. 당분간 해결 방법은 한 번에 하나의 파티션을 내보내거나 일시적이 아닌 분할 된 테이블에 데이터를 복사하는 것입니다.
Sqoop을 현재 재귀 디렉토리에 대한 수출을 지원하지 않습니다. JIRA의 Sqoop을-951은 지원을 추가하는 데있다. 당분간 해결 방법은 한 번에 하나의 파티션을 내보내거나 일시적이 아닌 분할 된 테이블에 데이터를 복사하는 것입니다.
-
==============================
2.이 질문은 아주 오래된,하지만 누군가가 그것을 바탕으로 실수를 한단다 경우에 사용하십시오
이 질문은 아주 오래된,하지만 누군가가 그것을 바탕으로 실수를 한단다 경우에 사용하십시오
--export-dir /user/hive/warehouse/sales/*"
테이블 내의 모든 파티션을 보냅니다.
from https://stackoverflow.com/questions/16133595/sqoop-exporting-partitioned-hive-table by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] AWS 액세스 키 ID는 하둡 FS -cp 명령에 실패 (0) | 2019.09.26 |
---|---|
[HADOOP] 하둡 작업 진행 (0) | 2019.09.26 |
[HADOOP] 하둡 맵리 듀스는 감소 호출의 입력 값을 반복 (0) | 2019.09.26 |
[HADOOP] 돼지 : 하둡 작업 실패 (0) | 2019.09.25 |
[HADOOP] Oozie 워크 플로우에서 여러 JAVA 작업 (0) | 2019.09.25 |