복붙노트

[HADOOP] 실패 기어

HADOOP

실패 기어

우리는 3 클러스터 시스템을 사용하고 내가 9 작업이 성공하기보다 감속기의 더가 작거나 설정할 수없는 경우 mapreduce.tasktracker.reduce.tasks.maximum 속성은 9로 설정되어 있지만 그때보다 9를 설정하면 그것은 실패 를 제외하고 "작업은 60 초 동안 핑 TT에 실패 attempt_201701270751_0001_r_000000_0. 살인을!". 하나는 문제가 될 것입니다 무엇 나를 인도 할 수

해결법

  1. ==============================

    1.하둡 -0.20 몇 가지 버그 것 같다.

    하둡 -0.20 몇 가지 버그 것 같다.

    https://issues.apache.org/jira/browse/MAPREDUCE-1905 (참조).

    당신은 태스크 시간 초과를 증가하려고시겠습니까?

    (0 시간 제한을 해제한다) (높은 값 mapreduce.task.timeout)

  2. from https://stackoverflow.com/questions/42484684/reducers-failing by cc-by-sa and MIT license