[HADOOP] Hadoop에서의 RecordReader 작업
HADOOPHadoop에서의 RecordReader 작업
누구든지 RecordReader가 실제로 어떻게 작동하는지 설명 할 수 있습니까? 프로그램이 실행되기 시작하면 nextkeyvalue (), getCurrentkey () 및 getprogress () 메서드는 어떻게 작동합니까?
해결법
-
==============================
1.(새 API) : 기본 매퍼 클래스에는 다음과 같은 run 메소드가 있습니다.
(새 API) : 기본 매퍼 클래스에는 다음과 같은 run 메소드가 있습니다.
public void run(Context context) throws IOException, InterruptedException { setup(context); while (context.nextKeyValue()) { map(context.getCurrentKey(), context.getCurrentValue(), context); } cleanup(context); }
Context.nextKeyValue (), Context.getCurrentKey () 및 Context.getCurrentValue () 메서드는 RecordReader 메서드에 대한 래퍼입니다. src / mapred / org / apache / hadoop / mapreduce / MapContext.java 소스 파일을 참조하십시오.
따라서이 루프는 Mapper 구현의 map (K, V, Context) 메소드를 실행하고 호출합니다.
특히 무엇을 알고 싶습니까?
-
==============================
2.org.apache.hadoop.mapred.MapTask - runNewMapper ()
org.apache.hadoop.mapred.MapTask - runNewMapper ()
임프 단계 :
from https://stackoverflow.com/questions/10943472/working-of-recordreader-in-hadoop by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] Hive의 쉼표로 구분 된 값의 열 (0) | 2019.07.12 |
---|---|
[HADOOP] hadoop 작업 트래커 시작 오류 (0) | 2019.07.12 |
[HADOOP] aws의 스파크 스텝 종료 (0) | 2019.07.12 |
[HADOOP] hbase에서 미리 분할하는 방법 (0) | 2019.07.12 |
[HADOOP] UDF에서 spark sql 쿼리를 실행하려고합니다. (0) | 2019.07.12 |