복붙노트

[HADOOP] java.io.FileNotFoundException는 : 파일이 존재하지 않습니다 HDFS : // localhost를 : 9000 / 집 / hduser / Sqoop을 / lib 디렉토리 / HSQLDB-1.8.0.10.jar

HADOOP

java.io.FileNotFoundException는 : 파일이 존재하지 않습니다 HDFS : // localhost를 : 9000 / 집 / hduser / Sqoop을 / lib 디렉토리 / HSQLDB-1.8.0.10.jar

나는 하둡과 Sqoop을하여 내 하둡 시스템에 하나의 MySQL의 테이블을 가져 오려는 및 명령 아래 사용하지만 오류가 기본적으로 MySQL의 남자와 새로운입니다. 나는 그물에 있지만 가능한 솔루션을받지 검색 할 수 있습니다.

나는 당신의 지원에 매우 감사 할 것입니다.

[hduser @ localhost를 ~] $의 Sqoop을 가져 --connect JDBC : mysql을 : //192.168.12.172 : 3306 / 테스트 --username 루트 -P --table users_log

오류: 15/02/25 16시 26분 40초 오류 tool.ImportTool : 가져 오기 작업을 실행 IOException이 발생했습니다가 : java.io.FileNotFoundException이 : 파일이 존재하지 않습니다 HDFS를 : // localhost를 : 9000 / 집 / hduser / Sqoop을 / lib 디렉토리 / hsqldb- 1.8.0.10.jar

심지어이 파일은 동일한 경로에 존재 자세한 내용은 below- 있습니다

[hduser@localhost ~]$ ls -lh /home/hduser/sqoop/lib/
total 5.1M
-rwxr-xr-x 1 hduser hadoop 220K Aug  1  2014 ant-contrib-1.0b3.jar
-rwxr-xr-x 1 hduser hadoop  36K Aug  1  2014 ant-eclipse-1.0-jvm1.2.jar
-rwxr-xr-x 1 hduser hadoop 392K Aug  1  2014 avro-1.7.5.jar
-rwxr-xr-x 1 hduser hadoop 167K Aug  1  2014 avro-mapred-1.7.5-hadoop2.jar
-rwxr-xr-x 1 hduser hadoop 236K Aug  1  2014 commons-compress-1.4.1.jar
-rwxr-xr-x 1 hduser hadoop 107K Aug  1  2014 commons-io-1.4.jar
-rwxr-xr-x 1 hduser hadoop 691K Aug  1  2014 hsqldb-1.8.0.10.jar
-rwxr-xr-x 1 hduser hadoop 227K Aug  1  2014 jackson-core-asl-1.9.13.jar
-rwxr-xr-x 1 hduser hadoop 763K Aug  1  2014 jackson-mapper-asl-1.9.13.jar
-rwxr-xr-x 1 hduser hadoop 932K Mar 11  2014 mysql-connector-java-5.1.30-bin.jar
-rwxr-xr-x 1 hduser hadoop  29K Aug  1  2014 paranamer-2.3.jar
-rwxr-xr-x 1 hduser hadoop 1.2M Aug  1  2014 snappy-java-1.0.5.jar
-rwxr-xr-x 1 hduser hadoop  93K Aug  1  2014 xz-1.0.jar

해결법

  1. ==============================

    1.HDFS : // localhost를 : 9000 / 인 하둡 HDFS 주소. 당신은 앱에서 속성을 변경하거나 HDFS에 항아리를 업로드 할 수 있습니다.

    HDFS : // localhost를 : 9000 / 인 하둡 HDFS 주소. 당신은 앱에서 속성을 변경하거나 HDFS에 항아리를 업로드 할 수 있습니다.

    당신은 당신의 리눅스 파일 시스템 만 HDFS의 ls 명령을 표시 : // localhost를 : 9000 / 인 하둡 HDFS 파일 시스템의 요지.

  2. ==============================

    2.문제를 해결할 명령 아래 실행하십시오. 그것은 HDFS 시스템에 파일을 복사합니다.

    문제를 해결할 명령 아래 실행하십시오. 그것은 HDFS 시스템에 파일을 복사합니다.

    HDFS DFS -copyFromLocal /opt/hadoop/sqoop-1.4.6 HDFS를 : // localhost를 : 9000 / 옵션 / 하둡 / Sqoop을-1.4.6

    HDFS DFS -copyFromLocal /opt/hadoop/sqoop-1.4.6/lib HDFS : // localhost를 : 9000 / 옵션 / 하둡 / Sqoop을-1.4.6 / lib에

    참고 : 하나 개의 라인으로 중괄호 인라인 섹션 아래 치료를하시기 바랍니다

    {HDFS DFS -copyFromLocal /opt/hadoop/sqoop-1.4.6/sqoop-1.4.6.jar HDFS를 : // localhost를 : 9000 / 옵션 / 하둡 / Sqoop을-1.4.6 / Sqoop을-1.4.6.jar}

    마찬가지로 HDFS 시스템에 의해 얻을 수없는 모든 파일을 복사합니다.

    참고 : 위의 명령 /opt/hadoop/sqoop-1.4.6에서 나의 시스템 Sqoop을 설치 위치

    감사합니다, 무스타파 Iqubal 카키

  3. from https://stackoverflow.com/questions/28717193/java-io-filenotfoundexception-file-does-not-exist-hdfs-localhost9000-home-h by cc-by-sa and MIT license