[HADOOP] Hadoop에서 기존 파일의 블록 크기 변경
HADOOPHadoop에서 기존 파일의 블록 크기 변경
hdfs-site.xml에서 기본 블록 크기가 64MB 인 hadoop 클러스터를 고려하십시오. 그러나 나중에 팀에서이를 128MB로 변경하기로 결정했습니다. 위의 시나리오에 대한 질문은 다음과 같습니다.
해결법
-
==============================
1.이 등록 정보 변경 사항을 적용하려면 클러스터를 다시 시작해야합니다.
이 등록 정보 변경 사항을 적용하려면 클러스터를 다시 시작해야합니다.
기존 블록은 블록 크기를 변경하지 않습니다.
기존 파일을 변경하려면 distcp를 사용할 수 있습니다. 새 블록 크기로 파일을 복사합니다. 그러나 이전 블록 크기의 이전 파일을 수동으로 삭제해야합니다. 다음은 사용할 수있는 명령입니다.
hadoop distcp -Ddfs.block.size=XX /path/to/old/files /path/to/new/files/with/larger/block/sizes.
-
==============================
2.귀하의 요점에 대해 언급 한 바와 같이 :
귀하의 요점에 대해 언급 한 바와 같이 :
자세한 정보는 링크를 확인하십시오.
-
==============================
3.On point 1 - Hadoop 1.2.1에서 hdfs-site.xml 파일의 dfs.block.size를 변경 한 후에 다시 시작할 필요가 없습니다. 파일 블록 크기는 Hadoop 관리 페이지 (http : // namenode : 50070 / dfshealth.jsp)에서 쉽게 확인할 수 있습니다.
On point 1 - Hadoop 1.2.1에서 hdfs-site.xml 파일의 dfs.block.size를 변경 한 후에 다시 시작할 필요가 없습니다. 파일 블록 크기는 Hadoop 관리 페이지 (http : // namenode : 50070 / dfshealth.jsp)에서 쉽게 확인할 수 있습니다.
모든 데이터 노드에서 dfs.block.size를 변경하십시오.
from https://stackoverflow.com/questions/29604823/change-block-size-of-existing-files-in-hadoop by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 하이브가지도 작업을 동시에 수행하도록 만드는 방법은 무엇입니까? (0) | 2019.06.17 |
---|---|
[HADOOP] Hadoop / Spark에서 proto3를 사용하려면 어떻게해야합니까? (0) | 2019.06.17 |
[HADOOP] 하이브의 문자열을 타임 스탬프로 변환 (0) | 2019.06.17 |
[HADOOP] Hadoop HADOOP_CLASSPATH 문제 (0) | 2019.06.17 |
[HADOOP] 하둡 얀 컨테이너가 충분한 공간을 할당하지 않음 (0) | 2019.06.17 |