복붙노트

[HADOOP] Windows 10에서 Hadoop 2.7.2 설치 중 오류

HADOOP

Windows 10에서 Hadoop 2.7.2 설치 중 오류

hadoop 관련 cmd 작업을 실행하는 동안이 오류가 발생합니다.

`Error: JAVA_HOME is incorrectly set. 
Please update C:\Hadoop\hadoop-2.7.2\conf\hadoop-env.cmd '-Xmx512m' is not recognized as an internal or external command, operable program or batch file.`

내 JAVA_HOME은 환경 변수에서 C : \ Program Fies (x86) \ Java \ jdk1.8.0_91로 설정되어 있습니다. 또한 C : \ Hadoop \ hadoop-2.7.2 \ etc \ hadoop-env.sh를 변경하고 JAVA_HOME을 위의 값과 동일하게 만들었습니다.

해결법

  1. ==============================

    1.간격이 문제입니다. C : \ Program Fies (x86) \ Java \ jdk1.8.0_91 대신 C : \ java \ jdk로 java를 설치하면 Windows 8.1에서 작동합니다.

    간격이 문제입니다. C : \ Program Fies (x86) \ Java \ jdk1.8.0_91 대신 C : \ java \ jdk로 java를 설치하면 Windows 8.1에서 작동합니다.

  2. ==============================

    2.hadoop-env.sh 파일 대신 hadoop-env.cmd (Windows 명령 스크립트)를 편집하고 경로를 JAVA_HOME으로 설정하십시오.

    hadoop-env.sh 파일 대신 hadoop-env.cmd (Windows 명령 스크립트)를 편집하고 경로를 JAVA_HOME으로 설정하십시오.

    설명 : -> jdk 경로에 경로에 공백이 없는지 확인하십시오 (예 : C : \ Program Files \ java .: 여기에서 "Program Files"에는 hadoop으로 구문 분석 할 수없는 공간이 포함되어 있음) {jdk 경로에 공백이 있으면 경로 이름에 공백이없는 다른 경로에 java를 설치하십시오.} -> hadoop-env.cmd를 마우스 오른쪽 단추로 클릭하고 메모장으로 편집-> set JAVA_HOME = (예 : set JAVA_HOME = C : \ java)

    이것은 나를 위해 일했습니다. 스칼라와 스칼라 IDE (Eclipse-> Maven 프로젝트를 scala IDE로 사용)가 설치된 Windows에 Apache Spark를 설치하고 winutils Error를 해결하고 마침내이 오류를 해결하여 창에서 스파크가 작동하도록했습니다. 이것들에 대해 궁금한 점이 있으면 언제든지 문의하십시오.

  3. ==============================

    3.경로에 공백이없는 java jdk 위치가있는 windows7의 hadoop-env.cmd에서 JAVA_HOME을 설정하십시오. 나도 문제에 직면했다.

    경로에 공백이없는 java jdk 위치가있는 windows7의 hadoop-env.cmd에서 JAVA_HOME을 설정하십시오. 나도 문제에 직면했다.

    초기 JDK 경로는-C : \ Program Files \ Java \ jdk1.8.0_144였습니다.

    -C : \ Java \ jdk1.8.0_144로 대체되었습니다.

    이제 Hadoop이 CMD를 통해 올바르게 시작되었습니다.

  4. from https://stackoverflow.com/questions/38077006/error-while-installing-hadoop-2-7-2-on-windows-10 by cc-by-sa and MIT license