복붙노트

[HADOOP] OpenJDK 클라이언트 VM-메모리를 할당 할 수 없습니다

HADOOP

OpenJDK 클라이언트 VM-메모리를 할당 할 수 없습니다

클러스터에서 Hadoop map reduce 작업을 실행 중입니다. 이 오류가 발생합니다.

무엇을해야합니까?

해결법

  1. ==============================

    1.머신에 스왑 공간이 있는지 확인하십시오

    머신에 스왑 공간이 있는지 확인하십시오

    ubuntu@VM-ubuntu:~$ free -m
                 total       used       free     shared    buffers     cached
    Mem:           994        928         65          0          1         48
    -/+ buffers/cache:        878        115
    Swap:         4095       1086       3009
    

    스왑 라인을 확인하십시오.

    Elastic Computing 인스턴스에서이 문제가 발생했습니다. 스왑 공간은 기본적으로 마운트되지 않습니다.

  2. ==============================

    2.이러한 런타임 매개 변수를 전달하여 메모리 할당 크기를 늘릴 수 있습니다.

    이러한 런타임 매개 변수를 전달하여 메모리 할당 크기를 늘릴 수 있습니다.

    예를 들면 다음과 같습니다.

    java -Xms1024M -Xmx2048M -jar application.jar
    
  3. ==============================

    3.JVM에 사용중인 매개 변수로 컨테이너 메모리 오버 플로우가있을 수 있습니다.

    JVM에 사용중인 매개 변수로 컨테이너 메모리 오버 플로우가있을 수 있습니다.

    속성이 다음인지 확인하십시오.

    yarn.nodemanager.resource.memory-mb
    yarn.scheduler.minimum-allocation-mb
    yarn.scheduler.maximum-allocation-mb
    

    yarn.xml의 원하는 값과 일치합니다.

    자세한 메모리 참조는 다음을 읽으십시오.

    HortonWorks 메모리 참조

    비슷한 문제

    참고 : hadoop 1.0을 실행중인 경우 Hadoop 2.0 용입니다. 작업 속성을 확인하십시오.

  4. from https://stackoverflow.com/questions/26382989/openjdk-client-vm-cannot-allocate-memory by cc-by-sa and MIT license