[HADOOP] Spark는 원사 클러스터 exitCode = 13에서 실행됩니다.
HADOOPSpark는 원사 클러스터 exitCode = 13에서 실행됩니다.
나는 원사 클러스터에서 스파크 작업을 제출할 때 exitCode = 13을 실행하는 스파크 / 원사 초보자입니다. 스파크 작업이 로컬 모드에서 실행 중이면 모든 것이 정상입니다.
내가 사용한 명령은 다음과 같습니다.
/usr/hdp/current/spark-client/bin/spark-submit --class com.test.sparkTest --master yarn --deploy-mode cluster --num-executors 40 --executor-cores 4 --driver-memory 17g --executor-memory 22g --files /usr/hdp/current/spark-client/conf/hive-site.xml /home/user/sparkTest.jar*
스파크 오류 로그 :
16/04/12 17:59:30 INFO Client:
client token: N/A
diagnostics: Application application_1459460037715_23007 failed 2 times due to AM Container for appattempt_1459460037715_23007_000002 exited with exitCode: 13
For more detailed output, check application tracking page:http://b-r06f2-prod.phx2.cpe.net:8088/cluster/app/application_1459460037715_23007Then, click on links to logs of each attempt.
Diagnostics: Exception from container-launch.
Container id: container_e40_1459460037715_23007_02_000001
Exit code: 13
Stack trace: ExitCodeException exitCode=13:
at org.apache.hadoop.util.Shell.runCommand(Shell.java:576)
at org.apache.hadoop.util.Shell.run(Shell.java:487)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:753)
at org.apache.hadoop.yarn.server.nodemanager.DefaultContainerExecutor.launchContainer(DefaultContainerExecutor.java:211)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:302)
at org.apache.hadoop.yarn.server.nodemanager.containermanager.launcher.ContainerLaunch.call(ContainerLaunch.java:82)
**Yarn logs**
16/04/12 23:55:35 INFO mapreduce.TableInputFormatBase: Input split length: 977 M bytes.
16/04/12 23:55:41 INFO yarn.ApplicationMaster: Waiting for spark context initialization ...
16/04/12 23:55:51 INFO yarn.ApplicationMaster: Waiting for spark context initialization ...
16/04/12 23:56:01 INFO yarn.ApplicationMaster: Waiting for spark context initialization ...
16/04/12 23:56:11 INFO yarn.ApplicationMaster: Waiting for spark context initialization ...
16/04/12 23:56:11 INFO client.ConnectionManager$HConnectionImplementation: Closing zookeeper sessionid=0x152f0b4fc0e7488
16/04/12 23:56:11 INFO zookeeper.ZooKeeper: Session: 0x152f0b4fc0e7488 closed
16/04/12 23:56:11 INFO zookeeper.ClientCnxn: EventThread shut down
16/04/12 23:56:11 INFO executor.Executor: Finished task 0.0 in stage 1.0 (TID 2). 2003 bytes result sent to driver
16/04/12 23:56:11 INFO scheduler.TaskSetManager: Finished task 0.0 in stage 1.0 (TID 2) in 82134 ms on localhost (2/3)
16/04/12 23:56:17 INFO client.ConnectionManager$HConnectionImplementation: Closing zookeeper sessionid=0x4508c270df0980316/04/12 23:56:17 INFO zookeeper.ZooKeeper: Session: 0x4508c270df09803 closed *
...
16/04/12 23:56:21 ERROR yarn.ApplicationMaster: SparkContext did not initialize after waiting for 100000 ms. Please check earlier log output for errors. Failing the application.
16/04/12 23:56:21 INFO yarn.ApplicationMaster: Final app status: FAILED, exitCode: 13, (reason: Timed out waiting for SparkContext.)
16/04/12 23:56:21 INFO spark.SparkContext: Invoking stop() from shutdown hook *
해결법
-
==============================
1.코드에서 마스터를 로컬로 설정 한 것으로 보입니다.
코드에서 마스터를 로컬로 설정 한 것으로 보입니다.
SparkConf.setMaster ( "로컬"[*])
마스터가 코드에서 설정을 해제하고 나중에 spark-submit을 실행할 때 설정해야합니다.
spark-submit - 마스터 원사 - 클라이언트 ...
-
==============================
2.도움이된다면
도움이된다면
이 오류의 또 다른 가능성은 --class 매개 변수를 잘못 넣었을 때입니다
from https://stackoverflow.com/questions/36535411/spark-runs-on-yarn-cluster-exitcode-13 by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] Hadoop Mapreduce 프로그램의 출력을 프로그래밍 방식으로 읽음 (0) | 2019.07.12 |
---|---|
[HADOOP] Oozie SSH 액션 (0) | 2019.07.12 |
[HADOOP] 엄청난 양의 데이터를 생성하는 방법? (0) | 2019.07.12 |
[HADOOP] 로그 분석을위한 Amazon MapReduce 모범 사례 (0) | 2019.07.12 |
[HADOOP] 매번 bash_profile을 소스 화해야하는 이유는 무엇입니까? (0) | 2019.07.12 |