[HADOOP] HDFS의 블록 배치 전략 수정
HADOOPHDFS의 블록 배치 전략 수정
내 응용 프로그램에 맞게 HDFS의 기본 블록 배치 전략을 수정하고 싶습니다. 예를 들어, file1 (128MB)과 file2 (128MB)라는 두 개의 파일이 있습니다. 블록 크기가 64MB 인 경우 각 파일은 두 개의 블록으로 분할됩니다. 나는 file1과 file2의 block1이 같은 datanode에 위치하도록하고 싶다. 가능하다면 복제본이 동일한 datanode 집합에도 배치되어 있는지 확인하고 싶습니다. 질문 1. 이것이 가능한가? 그렇다면 소스 코드에서 어떤 클래스를 수정해야합니까? 질문 2. copyFromLocal과 같은 명령은 hadoop 소스 코드의 함수에 어떻게 매핑됩니까?
해결법
-
==============================
1.블록 배치 정책의 기본 동작은 BlockPlacementPolicy 인터페이스를 확장하고 클래스를 Hadoop 구성 파일의 dfs.block.replicator.classname 특성으로 지정하여 수정할 수 있습니다.
블록 배치 정책의 기본 동작은 BlockPlacementPolicy 인터페이스를 확장하고 클래스를 Hadoop 구성 파일의 dfs.block.replicator.classname 특성으로 지정하여 수정할 수 있습니다.
Hadoop 작업은 특정 노드에 연결되어 있지 않으므로 분산 컴퓨팅의 고유 한 문제에 대한 Hadoop의 복원력이 향상됩니다. 특정 노드에서 두 파일에 대한 블록을 갖는 요구 사항은 무엇입니까? 요구 사항이 알려지면 더 나은 해결책을 찾을 수 있습니다.
from https://stackoverflow.com/questions/14494179/modifying-the-block-placement-strategy-of-hdfs by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] R : 직렬화 된 개체에서 CSV 만들기 (0) | 2019.07.24 |
---|---|
[HADOOP] oazie Java 액션에서 HBase 자격 증명 전달 (0) | 2019.07.24 |
[HADOOP] MapReduce는 여러 입력 파일을 어떻게 읽습니까? (0) | 2019.07.24 |
[HADOOP] 성공했을 때 PIG 작업 로그 파일을 유지하는 방법. (0) | 2019.07.24 |
[HADOOP] Hadoop 파일 시스템이 랜덤 I / O를 지원하지 않는 이유는 무엇입니까? (0) | 2019.07.24 |