[HADOOP] 돼지 : 하둡 작업 실패
HADOOP돼지 : 하둡 작업 실패
나는 csv 파일에서 데이터를 조회하는 돼지 스크립트가 있습니다.
스크립트는 크고 작은 .CSV 파일을 로컬에서 테스트되었습니다.
작은 클러스터의 경우 : 이 스크립트를 처리하기 시작하고, 전화의 40 %를 완료 한 후 실패
이 오류는, 그냥 "파일 경로"에서 데이터를 읽지 못했습니다
내가 추측하는 스크립트 파일을 읽을 수 있다는 것입니다,하지만 일부 연결 드롭이 메시지가 잃을
그러나 나는 단지 위에서 언급 한 오류가 발생합니다.
해결법
-
==============================
1.일반 문제에 대한 대답은 mapred-site.xml을이 두 줄을 추가, 구성 파일의 오류 수준을 변경하는 것
일반 문제에 대한 대답은 mapred-site.xml을이 두 줄을 추가, 구성 파일의 오류 수준을 변경하는 것
log4j.logger.org.apache.hadoop = error,A log4j.logger.org.apache.pig= error,A
내 경우, 메모리 부족 예외였다
-
==============================
2.당신의 로그를 확인 필요한 경우 상세 레벨을 증가하지만, 아마도 당신이 직면하고 아웃 된 MEM 오류가 있습니다.
당신의 로그를 확인 필요한 경우 상세 레벨을 증가하지만, 아마도 당신이 직면하고 아웃 된 MEM 오류가 있습니다.
돼지 로깅을 변경하는 방법에 대한이 답변을 확인합니다.
여기에 문서화 볼 수 하둡에서 메모리를 변경하면 hadoop-env.sh 파일을 변경
# The following applies to multiple commands (fs, dfs, fsck, distcp etc) export HADOOP_CLIENT_OPTS="-Xmx128m ${HADOOP_CLIENT_OPTS}"
아파치 PIG 위해 당신은 돼지 bash는 파일의 헤더이있다 :
# PIG_HEAPSIZE The maximum amount of heap to use, in MB. # Default is 1000.
그래서 당신은 수출을 사용하거나의 .bashrc 파일에 설정할 수 있습니다
$ export PIG_HEAPSIZE=4096MB
from https://stackoverflow.com/questions/27524788/pig-hadoop-jobs-fail by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 분할 하이브 테이블 Sqoop을 수출 (0) | 2019.09.26 |
---|---|
[HADOOP] 하둡 맵리 듀스는 감소 호출의 입력 값을 반복 (0) | 2019.09.26 |
[HADOOP] Oozie 워크 플로우에서 여러 JAVA 작업 (0) | 2019.09.25 |
[HADOOP] Oozie 파일 기반 코디네이터 (0) | 2019.09.25 |
[HADOOP] 하둡 2.x에서의 설치 모드를 찾는 방법 (0) | 2019.09.25 |