[HADOOP] 읽기 및 JAVA에서 HDFS에 쓸 수있는 기존의 API가 있습니까
HADOOP읽기 및 JAVA에서 HDFS에 쓸 수있는 기존의 API가 있습니까
읽기 / 그것을 구현하는 방법의 모범 사례와 함께, HDFS에서 쓸 수있는 기존의 API가있다.
해결법
-
==============================
1.아래는 코드입니다
아래는 코드입니다
import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IOUtils; import org.apache.hadoop.util.Progressable; String Dest = "/user/pkumar/test.xml"; Configuration conf = new Configuration(); FileSystem fs = FileSystem.get(URI.create(Dest),conf); Path path = new Path(Dest); if(!fs.exists(path)){ OutputStream out = fs.create(path, new Progressable(){ public void progress(){ System.out.print("."); } }); System.out.println(); IOUtils.copyBytes(connect, out, 4096, true); }
당신의 pom.xml에 아래의 종속성을 사용
<dependencies> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.3.0-cdh5.1.3</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.3.0-cdh5.1.3</version> </dependency> <dependency> <groupId>org.apache.httpcomponents</groupId> <artifactId>httpcore</artifactId> <version>4.3.2</version> </dependency> <dependency> <groupId>org.apache.httpcomponents</groupId> <artifactId>httpclient</artifactId> <version>4.3.2</version> </dependency> </dependencies>
from https://stackoverflow.com/questions/33872904/is-there-any-existing-api-to-read-and-write-to-hdfs-from-java by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] HBase를, 하둡은 : 어떻게 HBase를 테이블이나 하둡 파일 시스템 경로의 크기를 추정 할 수 있습니까? (0) | 2019.09.29 |
---|---|
[HADOOP] 실 클러스터 모드에 실패 oozie 런처 (0) | 2019.09.29 |
[HADOOP] 맵리 듀스 작업은 JSON의 HDFS 디렉토리에있는 모든 고유 필드를 수집합니다 (0) | 2019.09.29 |
[HADOOP] 오류 HDFS zkfc 명령을 실행 (0) | 2019.09.29 |
[HADOOP] 여러 서버에서 데이터를로드 할 때 데이터 중복 방지 (0) | 2019.09.28 |