[HADOOP] 어떻게 동적으로 Dataproc에서 작업자의 CPU / RAM / 디스크를 업그레이드?
HADOOP어떻게 동적으로 Dataproc에서 작업자의 CPU / RAM / 디스크를 업그레이드?
나는 구글 Dataproc에서의 기본 설정에 의해 클러스터 (4 개의 vCPU, 15기가바이트 램)을 만들었습니다. 여러 돼지 작업을 거쳐, 클러스터는 2-3 건강에 해로운 노드를했다. 그래서 노동자 VM의 (30기가바이트에 15기가바이트) 개의 vCPU (4 ~ 8 개의 vCPU), RAM 및 디스크를 업그레이드했습니다. 그러나 하둡 웹 인터페이스에 아직도의 vCPU / RAM / 디스크의 원래 마운트를 보여, 작업자 노드의 하드웨어를 변경하지 않은 보여 주었다.
어떻게 동적으로 Dataproc에서 작업자의 CPU / RAM / 디스크를 업그레이드 할 수 있습니다?
감사.
해결법
-
==============================
1.Dataproc에서 실행 클러스터에서 노동자 업그레이드에 대한 지원이 없습니다. 업그레이드하려면, 우리는 클러스터를 다시하는 것이 좋습니다. 또한 클러스터 업데이트 gcloud 명령을 통해 여분의 근로자를 추가 할 수 있습니다.
Dataproc에서 실행 클러스터에서 노동자 업그레이드에 대한 지원이 없습니다. 업그레이드하려면, 우리는 클러스터를 다시하는 것이 좋습니다. 또한 클러스터 업데이트 gcloud 명령을 통해 여분의 근로자를 추가 할 수 있습니다.
또한, 각 작업자 인스턴스를 중지 업그레이드하고 다시 시작하여 작업자 유형을 업그레이드 할 수 있습니다. 그러나, 다른 컨테이너의 사이즈를 수용하도록 변경해야 하둡 / 스파크 다수의 특성이있다.
from https://stackoverflow.com/questions/39073032/how-i-dynamically-upgrade-workers-cpu-ram-disk-in-dataproc by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 데이터 노드 오류 하이브에 트위터 심리 분석을위한 쿼리를 실행하는 동안 (0) | 2019.10.21 |
---|---|
[HADOOP] 하이브에 대한 질문 (0) | 2019.10.21 |
[HADOOP] SQL로 감소 ES 쿼리 결과를 전달 (0) | 2019.10.21 |
[HADOOP] pyhive, SQLAlchemy의 샌드 박스를 하둡에 연결할 수 없습니다 (0) | 2019.10.21 |
[HADOOP] 명령 행 (CDH 5)을 사용하여 하둡 서비스 시작 (0) | 2019.10.21 |