복붙노트

[HADOOP] 분할 하이브 테이블 Sqoop을 수출

HADOOP

분할 하이브 테이블 Sqoop을 수출

분할 된 하이브 테이블을 수출 할 때 나는 몇 가지 문제가 발생했습니다. 이 완벽하게 지원되어 (나는 그것을 위해 Google에 노력하고 하나 JIRA 티켓을 발견)?

sqoop export --connect jdbc:mysql://localhost/testdb --table sales --export-dir /user/hive/warehouse/sales --direct

그리고 여기에 내가 무엇을 얻을 수 있습니다 :

00000_2, Status : FAILED
java.io.FileNotFoundException: File does not exist: /user/hive/warehouse/sales/day=2013-04-01

달리는

hadoop fs -ls /user/hive/warehouse/sales/day=2013-04-01

이 디렉토리가 실제로 존재한다는 것을 보여줍니다.

에 대한 모든 아이디어를 어떻게이 문제를 해결하려면? 미리 감사드립니다, 디디

해결법

  1. ==============================

    1.Sqoop을 현재 재귀 디렉토리에 대한 수출을 지원하지 않습니다. JIRA의 Sqoop을-951은 지원을 추가하는 데있다. 당분간 해결 방법은 한 번에 하나의 파티션을 내보내거나 일시적이 아닌 분할 된 테이블에 데이터를 복사하는 것입니다.

    Sqoop을 현재 재귀 디렉토리에 대한 수출을 지원하지 않습니다. JIRA의 Sqoop을-951은 지원을 추가하는 데있다. 당분간 해결 방법은 한 번에 하나의 파티션을 내보내거나 일시적이 아닌 분할 된 테이블에 데이터를 복사하는 것입니다.

  2. ==============================

    2.이 질문은 아주 오래된,하지만 누군가가 그것을 바탕으로 실수를 한단다 경우에 사용하십시오

    이 질문은 아주 오래된,하지만 누군가가 그것을 바탕으로 실수를 한단다 경우에 사용하십시오

    --export-dir /user/hive/warehouse/sales/*" 
    

    테이블 내의 모든 파티션을 보냅니다.

  3. from https://stackoverflow.com/questions/16133595/sqoop-exporting-partitioned-hive-table by cc-by-sa and MIT license