[HADOOP] java.io.FileNotFoundException는 : 파일이 존재하지 않습니다 HDFS : // localhost를 : 9000 / 집 / hduser / Sqoop을 / lib 디렉토리 / HSQLDB-1.8.0.10.jar
HADOOPjava.io.FileNotFoundException는 : 파일이 존재하지 않습니다 HDFS : // localhost를 : 9000 / 집 / hduser / Sqoop을 / lib 디렉토리 / HSQLDB-1.8.0.10.jar
나는 하둡과 Sqoop을하여 내 하둡 시스템에 하나의 MySQL의 테이블을 가져 오려는 및 명령 아래 사용하지만 오류가 기본적으로 MySQL의 남자와 새로운입니다. 나는 그물에 있지만 가능한 솔루션을받지 검색 할 수 있습니다.
나는 당신의 지원에 매우 감사 할 것입니다.
[hduser @ localhost를 ~] $의 Sqoop을 가져 --connect JDBC : mysql을 : //192.168.12.172 : 3306 / 테스트 --username 루트 -P --table users_log
오류: 15/02/25 16시 26분 40초 오류 tool.ImportTool : 가져 오기 작업을 실행 IOException이 발생했습니다가 : java.io.FileNotFoundException이 : 파일이 존재하지 않습니다 HDFS를 : // localhost를 : 9000 / 집 / hduser / Sqoop을 / lib 디렉토리 / hsqldb- 1.8.0.10.jar
심지어이 파일은 동일한 경로에 존재 자세한 내용은 below- 있습니다
[hduser@localhost ~]$ ls -lh /home/hduser/sqoop/lib/
total 5.1M
-rwxr-xr-x 1 hduser hadoop 220K Aug 1 2014 ant-contrib-1.0b3.jar
-rwxr-xr-x 1 hduser hadoop 36K Aug 1 2014 ant-eclipse-1.0-jvm1.2.jar
-rwxr-xr-x 1 hduser hadoop 392K Aug 1 2014 avro-1.7.5.jar
-rwxr-xr-x 1 hduser hadoop 167K Aug 1 2014 avro-mapred-1.7.5-hadoop2.jar
-rwxr-xr-x 1 hduser hadoop 236K Aug 1 2014 commons-compress-1.4.1.jar
-rwxr-xr-x 1 hduser hadoop 107K Aug 1 2014 commons-io-1.4.jar
-rwxr-xr-x 1 hduser hadoop 691K Aug 1 2014 hsqldb-1.8.0.10.jar
-rwxr-xr-x 1 hduser hadoop 227K Aug 1 2014 jackson-core-asl-1.9.13.jar
-rwxr-xr-x 1 hduser hadoop 763K Aug 1 2014 jackson-mapper-asl-1.9.13.jar
-rwxr-xr-x 1 hduser hadoop 932K Mar 11 2014 mysql-connector-java-5.1.30-bin.jar
-rwxr-xr-x 1 hduser hadoop 29K Aug 1 2014 paranamer-2.3.jar
-rwxr-xr-x 1 hduser hadoop 1.2M Aug 1 2014 snappy-java-1.0.5.jar
-rwxr-xr-x 1 hduser hadoop 93K Aug 1 2014 xz-1.0.jar
해결법
-
==============================
1.HDFS : // localhost를 : 9000 / 인 하둡 HDFS 주소. 당신은 앱에서 속성을 변경하거나 HDFS에 항아리를 업로드 할 수 있습니다.
HDFS : // localhost를 : 9000 / 인 하둡 HDFS 주소. 당신은 앱에서 속성을 변경하거나 HDFS에 항아리를 업로드 할 수 있습니다.
당신은 당신의 리눅스 파일 시스템 만 HDFS의 ls 명령을 표시 : // localhost를 : 9000 / 인 하둡 HDFS 파일 시스템의 요지.
-
==============================
2.문제를 해결할 명령 아래 실행하십시오. 그것은 HDFS 시스템에 파일을 복사합니다.
문제를 해결할 명령 아래 실행하십시오. 그것은 HDFS 시스템에 파일을 복사합니다.
HDFS DFS -copyFromLocal /opt/hadoop/sqoop-1.4.6 HDFS를 : // localhost를 : 9000 / 옵션 / 하둡 / Sqoop을-1.4.6
HDFS DFS -copyFromLocal /opt/hadoop/sqoop-1.4.6/lib HDFS : // localhost를 : 9000 / 옵션 / 하둡 / Sqoop을-1.4.6 / lib에
참고 : 하나 개의 라인으로 중괄호 인라인 섹션 아래 치료를하시기 바랍니다
{HDFS DFS -copyFromLocal /opt/hadoop/sqoop-1.4.6/sqoop-1.4.6.jar HDFS를 : // localhost를 : 9000 / 옵션 / 하둡 / Sqoop을-1.4.6 / Sqoop을-1.4.6.jar}
마찬가지로 HDFS 시스템에 의해 얻을 수없는 모든 파일을 복사합니다.
참고 : 위의 명령 /opt/hadoop/sqoop-1.4.6에서 나의 시스템 Sqoop을 설치 위치
감사합니다, 무스타파 Iqubal 카키
from https://stackoverflow.com/questions/28717193/java-io-filenotfoundexception-file-does-not-exist-hdfs-localhost9000-home-h by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 스파크 스트리밍 : java.io.FileNotFoundException : 파일이 없습니다 : <input_filename> ._ COPYING_ (0) | 2019.10.09 |
---|---|
[HADOOP] pyspark : 로컬 파일을 찾을 수 없습니다 (0) | 2019.10.09 |
[HADOOP] HBase를 쿼리와 하이브 (0) | 2019.10.09 |
[HADOOP] 섭취 된 데이터의 유효성을 검사하는 방법을 가장 좋은 방법은 (0) | 2019.10.09 |
[HADOOP] 하이브를 시작하지 못했습니다 (0) | 2019.10.09 |