[HADOOP] 잘못된 FS 오류에 Sqoop을 + S3 + 마루 결과
HADOOP잘못된 FS 오류에 Sqoop을 + S3 + 마루 결과
다음과 같이 Sqoop을을 사용하여 마루 형식으로 S3에 데이터를 가져올하려고 할 때 :
bin/sqoop import --connect 'jdbc:[conn_string]' --table [table] --target-dir s3a://bucket-name/ --hive-drop-import-delims --as-parquetfile
... 나는 다음과 같은 오류가 발생합니다 :
ERROR tool.ImportTool: Imported Failed: Wrong FS: s3a://bucket-name/, expected: hdfs://localhost:9000
나는 아무 문제가 아닌 마루 데이터를 가져 오거나 HDFS를 통해 직접 S3A 작업이 없습니다. 이 문제처럼 보인다, 그러나 그것은 아마도 많은 버전 전에 수정되었습니다.
해결법
-
==============================
1.마루 형식으로 Sqoop을 가져 오기가 현재 대상 디렉토리로 S3를 지원하지 않는, 사용할 수 있습니다 주위 작품은 HDFS에 데이터를 가져온 다음 S3하는 HDFS에서 복사 할 distcp 사용하는 것입니다
마루 형식으로 Sqoop을 가져 오기가 현재 대상 디렉토리로 S3를 지원하지 않는, 사용할 수 있습니다 주위 작품은 HDFS에 데이터를 가져온 다음 S3하는 HDFS에서 복사 할 distcp 사용하는 것입니다
-
==============================
2.당신이 대상 디렉토리로 S3를 사용하는 경우 Sqoop을 마루 파일 가져 오기를 지원하지 않습니다.
당신이 대상 디렉토리로 S3를 사용하는 경우 Sqoop을 마루 파일 가져 오기를 지원하지 않습니다.
from https://stackoverflow.com/questions/33223110/sqoop-s3-parquet-results-in-wrong-fs-error by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 하둡 돼지 XPath는 빈 속성 값을 반환 (0) | 2019.10.10 |
---|---|
[HADOOP] 하둡의 블록 크기 (0) | 2019.10.10 |
[HADOOP] 페도라 15 Sqoop을 설치 오류 (0) | 2019.10.10 |
[HADOOP] 오류 여는 작업 항아리 : "주"java.io.IOException 상위 스레드의 예외 하둡에서 ex.jar (0) | 2019.10.10 |
[HADOOP] 구글의 Dataproc에서의 스파크로 인해 java.io.FileNotFoundException 실패 : / 하둡 / 실 / NM-로컬 디렉토리 / usercache / 루트 / 앱 캐시 / (0) | 2019.10.10 |