[HADOOP] 하둡 하이브 mapred 작업에 대한 최대 감속기를 제한 할 수있는 기능?
HADOOP하둡 하이브 mapred 작업에 대한 최대 감속기를 제한 할 수있는 기능?
나는 내 쿼리를 붙이는 시도했다 :
set mapred.running.reduce.limit = 25;
과
set hive.exec.reducers.max = 35;
내가 그것을 시도하고 35로 작업 (530) 감속기 가치 신발 경적 거라고 생각하게 35까지 530 감속기와 함께 작업 투옥 마지막 하나 ....
지금 제공
set mapred.tasktracker.reduce.tasks.maximum = 3;
• 그래도 숫자는 노드 당 최대 어떤 종류가 있는지 확인하려고 (이전 70 잠재적 인 감속기의있는 클러스터의 7이었다).
최신 정보:
set mapred.tasktracker.reduce.tasks.maximum = 3;
영향을 미치지 아니, 시도하지만 가치가 있었다.
해결법
-
==============================
1.아니 정확히 질문에 대한 해결책, 그러나 잠재적으로 좋은 타협.
아니 정확히 질문에 대한 해결책, 그러나 잠재적으로 좋은 타협.
set hive.exec.reducers.max = 45;
400 + 감속기를 가지고 운명의 슈퍼 쿼리의 경우,이 아래에 35 감속기 총 가장 비싼 하이브 작업을 투옥하는 일도 종종 벌어. 실제로 70 감속기 한 번으로 실행할 수 있도록 내 클러스터는 현재 10 개 노드, 7 감속기를 지원하는 각 노드에 ...있다. 미만 70까지 일을 수감, 나는 최종 제품에 눈에 띄는 변화없이 속도에 약간의 개선이 나타났습니다. 생산이 테스트 정확히 여기에 무슨 일이 일어나고 있는지 알아 내려고합니다. 중간에 그것은 좋은 타협 솔루션입니다.
from https://stackoverflow.com/questions/4924674/ability-to-limit-maximum-reducers-for-a-hadoop-hive-mapred-job by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 실패 오류 : 때 java.io.IOException : 모든 수집가의 초기화 실패 (0) | 2019.09.18 |
---|---|
[HADOOP] 때문에 HBase를 클라이언트 항아리 = TRUE 관리 하드에 HTable 데이터를 스캔 Bigtable을 연결할 수 없습니다 (0) | 2019.09.18 |
[HADOOP] HBase를-인덱서 SOLR는 HBase를 테이블 행의 크기와 다른 numFound (0) | 2019.09.18 |
[HADOOP] 하나 개의 데이터 노드는 다중 노드 하둡 설정에서 실행할 수 있습니다 (0) | 2019.09.18 |
[HADOOP] 하둡은 : 무엇을 매핑해야하고 무엇을 줄여야한다? (0) | 2019.09.18 |