[HADOOP] 파이썬에서 하둡 스트리밍 작업 실패 (성공하지 못함)
HADOOP파이썬에서 하둡 스트리밍 작업 실패 (성공하지 못함)
파이썬 스크립트로 Hadoop Streaming에서 Map-Reduce 작업을 실행하려고하는데, Hadoop Streaming Job이 python에서 오류를 일으키지 못했지만 동일한 오류가 발생했지만 이러한 솔루션은 나에게 적합하지 않았습니다.
"cat sample.txt | ./p1mapper.py | sort | ./p1reducer.py"를 실행하면 스크립트가 제대로 작동합니다.
그러나 다음과 같이 실행하면 :
./bin/hadoop jar contrib/streaming/hadoop-0.20.2-streaming.jar \
-input "p1input/*" \
-output p1output \
-mapper "python p1mapper.py" \
-reducer "python p1reducer.py" \
-file /Users/Tish/Desktop/HW1/p1mapper.py \
-file /Users/Tish/Desktop/HW1/p1reducer.py
(참고 : "python"을 제거하거나 -mapper 및 -reducer의 전체 경로 이름을 입력하더라도 결과는 동일합니다)
이것은 제가 얻는 결과입니다 :
packageJobJar: [/Users/Tish/Desktop/HW1/p1mapper.py, /Users/Tish/Desktop/CS246/HW1/p1reducer.py, /Users/Tish/Documents/workspace/hadoop-0.20.2/tmp/hadoop-unjar4363616744311424878/] [] /var/folders/Mk/MkDxFxURFZmLg+gkCGdO9U+++TM/-Tmp-/streamjob3714058030803466665.jar tmpDir=null
11/01/18 03:02:52 INFO mapred.FileInputFormat: Total input paths to process : 1
11/01/18 03:02:52 INFO streaming.StreamJob: getLocalDirs(): [tmp/mapred/local]
11/01/18 03:02:52 INFO streaming.StreamJob: Running job: job_201101180237_0005
11/01/18 03:02:52 INFO streaming.StreamJob: To kill this job, run:
11/01/18 03:02:52 INFO streaming.StreamJob: /Users/Tish/Documents/workspace/hadoop-0.20.2/bin/../bin/hadoop job -Dmapred.job.tracker=localhost:54311 -kill job_201101180237_0005
11/01/18 03:02:52 INFO streaming.StreamJob: Tracking URL: http://www.glassdoor.com:50030/jobdetails.jsp?jobid=job_201101180237_0005
11/01/18 03:02:53 INFO streaming.StreamJob: map 0% reduce 0%
11/01/18 03:03:05 INFO streaming.StreamJob: map 100% reduce 0%
11/01/18 03:03:44 INFO streaming.StreamJob: map 50% reduce 0%
11/01/18 03:03:47 INFO streaming.StreamJob: map 100% reduce 100%
11/01/18 03:03:47 INFO streaming.StreamJob: To kill this job, run:
11/01/18 03:03:47 INFO streaming.StreamJob: /Users/Tish/Documents/workspace/hadoop-0.20.2/bin/../bin/hadoop job -Dmapred.job.tracker=localhost:54311 -kill job_201101180237_0005
11/01/18 03:03:47 INFO streaming.StreamJob: Tracking URL: http://www.glassdoor.com:50030/jobdetails.jsp?jobid=job_201101180237_0005
11/01/18 03:03:47 ERROR streaming.StreamJob: Job not Successful!
11/01/18 03:03:47 INFO streaming.StreamJob: killJob...
Streaming Job Failed!
실패 / 중단 작업 시도마다 :
Map output lost, rescheduling: getMapOutput(attempt_201101181225_0001_m_000000_0,0) failed :
org.apache.hadoop.util.DiskChecker$DiskErrorException: Could not find taskTracker/jobcache/job_201101181225_0001/attempt_201101181225_0001_m_000000_0/output/file.out.index in any of the configured local directories
at org.apache.hadoop.fs.LocalDirAllocator$AllocatorPerContext.getLocalPathToRead(LocalDirAllocator.java:389)
at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathToRead(LocalDirAllocator.java:138)
at org.apache.hadoop.mapred.TaskTracker$MapOutputServlet.doGet(TaskTracker.java:2887)
at javax.servlet.http.HttpServlet.service(HttpServlet.java:707)
at javax.servlet.http.HttpServlet.service(HttpServlet.java:820)
at org.mortbay.jetty.servlet.ServletHolder.handle(ServletHolder.java:502)
at org.mortbay.jetty.servlet.ServletHandler.handle(ServletHandler.java:363)
at org.mortbay.jetty.security.SecurityHandler.handle(SecurityHandler.java:216)
at org.mortbay.jetty.servlet.SessionHandler.handle(SessionHandler.java:181)
at org.mortbay.jetty.handler.ContextHandler.handle(ContextHandler.java:766)
at org.mortbay.jetty.webapp.WebAppContext.handle(WebAppContext.java:417)
at org.mortbay.jetty.handler.ContextHandlerCollection.handle(ContextHandlerCollection.java:230)
at org.mortbay.jetty.handler.HandlerWrapper.handle(HandlerWrapper.java:152)
at org.mortbay.jetty.Server.handle(Server.java:324)
at org.mortbay.jetty.HttpConnection.handleRequest(HttpConnection.java:534)
at org.mortbay.jetty.HttpConnection$RequestHandler.headerComplete(HttpConnection.java:864)
at org.mortbay.jetty.HttpParser.parseNext(HttpParser.java:533)
at org.mortbay.jetty.HttpParser.parseAvailable(HttpParser.java:207)
at org.mortbay.jetty.HttpConnection.handle(HttpConnection.java:403)
at org.mortbay.io.nio.SelectChannelEndPoint.run(SelectChannelEndPoint.java:409)
at org.mortbay.thread.QueuedThreadPool$PoolThread.run(QueuedThreadPool.java:522)
다음은 파이썬 스크립트입니다. p1mapper.py
#!/usr/bin/env python
import sys
import re
SEQ_LEN = 4
eos = re.compile('(?<=[a-zA-Z])\.') # period preceded by an alphabet
ignore = re.compile('[\W\d]')
for line in sys.stdin:
array = re.split(eos, line)
for sent in array:
sent = ignore.sub('', sent)
sent = sent.lower()
if len(sent) >= SEQ_LEN:
for i in range(len(sent)-SEQ_LEN + 1):
print '%s 1' % sent[i:i+SEQ_LEN]
p1reducer.py
#!/usr/bin/env python
from operator import itemgetter
import sys
word2count = {}
for line in sys.stdin:
word, count = line.split(' ', 1)
try:
count = int(count)
word2count[word] = word2count.get(word, 0) + count
except ValueError: # count was not a number
pass
# sort
sorted_word2count = sorted(word2count.items(), key=itemgetter(1), reverse=True)
# write the top 3 sequences
for word, count in sorted_word2count[0:3]:
print '%s\t%s'% (word, count)
어떤 도움을 주셔서 감사합니다, 감사합니다!
최신 정보:
hdfs-site.xml :
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-site.xml :
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:54311</value>
</property>
</configuration>
해결법
-
==============================
1.많은 구성이 누락되어 디렉토리 등을 정의해야합니다. 여길 봐:
많은 구성이 누락되어 디렉토리 등을 정의해야합니다. 여길 봐:
http://wiki.apache.org/hadoop/QuickStart
분산 연산은 다음을 제외하고 위에 설명 된 의사 분산 연산과 같습니다.
-
==============================
2.글쎄, 나는 2 일 동안 똑같은 문제를 고수했다. Joe가 다른 포스트에서 제공 한 해결책은 나를 위해 잘 작동한다.
글쎄, 나는 2 일 동안 똑같은 문제를 고수했다. Joe가 다른 포스트에서 제공 한 해결책은 나를 위해 잘 작동한다.
당신의 문제에 대한 해결책으로서 나는 다음을 제안한다.
1) 여기에 단일 노드 클러스터를 설치하는 방법에 대해 맹목적으로 맹목적으로 지시를 따르십시오 (이미 그렇게했다고 가정)
2) java.io.IOException : Incompatible namespaceIDs 오류 (로그를 살펴보면 찾을 수 있음)가있는 곳이면 어디든 볼 수 있습니다.
3) 실행 예제에서 명령에서 모든 중복 견적을 제거하십시오
./bin/hadoop jar contrib/streaming/hadoop-0.20.2-streaming.jar \ -input "p1input/*" \ -output p1output \ -mapper p1mapper.py \ -reducer p1reducer.py \ -file /Users/Tish/Desktop/HW1/p1mapper.py \ -file /Users/Tish/Desktop/HW1/p1reducer.py
이것은 우습다. 그러나 그것은 내가 2 개의 날 동안 고집했던 주안점이었다
from https://stackoverflow.com/questions/4723437/hadoop-streaming-job-failed-not-successful-in-python by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] Hadoop ORC 파일 - 작동 방법 - 메타 데이터를 가져 오는 방법 (0) | 2019.07.22 |
---|---|
[HADOOP] JSP 서블릿 예외 (0) | 2019.07.22 |
[HADOOP] hadoop2.2.0 추가 파일이 발생했습니다. AlreadyBeingCreatedException (0) | 2019.07.22 |
[HADOOP] HBase 테이블의 영역 수를 늘리는 방법 (0) | 2019.07.22 |
[HADOOP] 로컬 hadoop과 푸른 하늘 방울 저장소와 연결할 수 없습니다 (0) | 2019.07.22 |