복붙노트

[HADOOP] 시스템 디렉토리를 가져 오지 못했습니다-hadoop

HADOOP

시스템 디렉토리를 가져 오지 못했습니다-hadoop

hadoop 다중 노드 설정 사용 (1 마스터, 1 슬레이브)

master에서 start-mapred.sh를 시작한 후 TT 로그에서 아래 오류가 발견되었습니다 (슬레이브)

어떤 사람 이이 오류를 피하기 위해 무엇을 할 수 있는지 아는 데 도움이 될 수 있습니까?

나는 사용하고있다 하둡 1.2.0 부두 -6.1.26 자바 버전 "1.6.0_23"

mapred-site.xml 파일

<configuration>
<property>
  <name>mapred.job.tracker</name>
  <value>master:54311</value>
  <description>The host and port that the MapReduce job tracker runs
  at.  If "local", then jobs are run in-process as a single map
  and reduce task.
  </description>
</property>
<property>
  <name>mapred.map.tasks</name>
    <value>1</value>
      <description>
          define mapred.map tasks to be number of slave hosts
</description>
</property>

<property>
  <name>mapred.reduce.tasks</name>
    <value>1</value>
      <description>
          define mapred.reduce tasks to be number of slave hosts
</description>
</property>

</configuration>

core-site.xml

<configuration>
<property>
  <name>fs.default.name</name>
  <value>hdfs://master:54310</value>
  <description>The name of the default file system.  A URI whose
  scheme and authority determine the FileSystem implementation.  The
  uri's scheme determines the config property (fs.SCHEME.impl) naming
  the FileSystem implementation class.  The uri's authority is used to
  determine the host, port, etc. for a filesystem.</description>
</property>
<property>
  <name>hadoop.tmp.dir</name>
  <value>/home/hduser/workspace</value>
</property>
</configuration>

해결법

  1. ==============================

    1.방금 hadoop.tmp.dir를 추가하고 작업을 시작한 것 같습니다. 구성 파일에 특성을 추가 한 후 Hadoop 데몬을 다시 시작해야합니다. 주석에이 특성을 나중에 추가하도록 지정했습니다. 이는 다른 임시 파일과 함께 모든 데이터 및 메타 데이터가 여전히 / tmp 디렉토리에 있음을 의미합니다. 거기에있는 모든 내용을 / home / hduser / workspace 디렉토리에 복사하고 Hadoop을 다시 시작한 후 작업을 다시 실행하십시오.

    방금 hadoop.tmp.dir를 추가하고 작업을 시작한 것 같습니다. 구성 파일에 특성을 추가 한 후 Hadoop 데몬을 다시 시작해야합니다. 주석에이 특성을 나중에 추가하도록 지정했습니다. 이는 다른 임시 파일과 함께 모든 데이터 및 메타 데이터가 여전히 / tmp 디렉토리에 있음을 의미합니다. 거기에있는 모든 내용을 / home / hduser / workspace 디렉토리에 복사하고 Hadoop을 다시 시작한 후 작업을 다시 실행하십시오.

    결과를 알려주십시오. 고맙습니다.

  2. ==============================

    2.그렇다면 Windows PC이고 cygwin을 사용하여 Hadoop을 실행하는 것입니다. 그런 다음 작업 추적기가 작동하지 않습니다.

    그렇다면 Windows PC이고 cygwin을 사용하여 Hadoop을 실행하는 것입니다. 그런 다음 작업 추적기가 작동하지 않습니다.

  3. from https://stackoverflow.com/questions/17916602/failed-to-get-system-directory-hadoop by cc-by-sa and MIT license