복붙노트

[HADOOP] 각 Hadoop 매퍼가 읽을 기본 크기는 얼마입니까?

HADOOP

각 Hadoop 매퍼가 읽을 기본 크기는 얼마입니까?

HDFS의 블록 크기는 64MB입니까? 그것을 변경하는 데 사용할 수있는 구성 매개 변수가 있습니까?

gzip 파일을 읽는 mapper의 경우 gzip 파일 수가 매퍼 수와 같아야합니다.

해결법

  1. ==============================

    1.이것은 당신에 의존합니다 :

    이것은 당신에 의존합니다 :

    따라서 64MB의 블록 크기를 가진 파일이 있지만 맵 작업 당 이보다 더 많거나 적게 처리하려는 경우에는 다음 작업 구성 속성 만 설정하면됩니다.

    MR2 / YARN을 사용하는 경우 위의 속성은 더 이상 사용되지 않으며 다음으로 대체됩니다.

  2. from https://stackoverflow.com/questions/17852838/what-is-the-default-size-that-each-hadoop-mapper-will-read by cc-by-sa and MIT license