복붙노트

[HADOOP] Opencl 애플리케이션에 대해 hadoop MapReuce 프레임 워크를 사용하는 방법?

HADOOP

Opencl 애플리케이션에 대해 hadoop MapReuce 프레임 워크를 사용하는 방법?

오픈 커클에서 GPU 플랫폼에 데이터 마이닝 알고리즘을 구현하는 것이 기본 목적입니다. Hadoop Distributed File System을 사용하고 여러 노드에서 애플리케이션을 실행하고 싶습니다. MapReduce 프레임 워크를 사용하고 있는데 기본 알고리즘을 'Map'과 'Reduce'의 두 부분으로 나누었습니다.

전에 hadoop에서 일한 적이 없으므로 몇 가지 질문이 있습니다.

해결법

  1. ==============================

    1.Hadoop Streaming을 사용하면 코드가 stdio에서 읽고 다시 쓸 수있는 한 원하는 모든 언어로 매퍼와 축소기를 작성할 수 있습니다. 영감을 얻으려면 H가 Hadoop Streaming과 함께 사용되는 방법의 예를 살펴볼 수 있습니다.

    Hadoop Streaming을 사용하면 코드가 stdio에서 읽고 다시 쓸 수있는 한 원하는 모든 언어로 매퍼와 축소기를 작성할 수 있습니다. 영감을 얻으려면 H가 Hadoop Streaming과 함께 사용되는 방법의 예를 살펴볼 수 있습니다.

  2. ==============================

    2.HDFS는 파일 시스템입니다. 어떤 언어로든 HDFS 파일 시스템을 사용할 수 있습니다.

    HDFS는 파일 시스템입니다. 어떤 언어로든 HDFS 파일 시스템을 사용할 수 있습니다.

    HDFS 데이터는 여러 컴퓨터에 분산되어 있으므로 GPU 컴퓨팅에서 데이터를 처리 할 수 ​​있습니다.

    자세한 내용은 Hadoop Streaming을 참조하십시오.

  3. from https://stackoverflow.com/questions/15495698/how-to-use-hadoop-mapreuce-framework-for-an-opencl-application by cc-by-sa and MIT license