복붙노트

[HADOOP] 의사 분산 모드 하둡

HADOOP

의사 분산 모드 하둡

나는 맥에서 의사 분산 모드 하둡 2.7.3 설치 및 복수 사이트에 지정된 모든 구성했다있다. 나는 HDFS로 현지에서 CSV 파일을 복사. 하지만 난 파일을 검색 다음날, 그것은 HDFS에 존재하고 자동으로 제거되지 않습니다. 내 파일이 손실되지 않도록 설정 다른 conf의가 있습니까?

코어를 site.xml

<configuration> 
   <property> 
      <name>fs.defaultFS</name> 
      <value>hdfs://localhost:9000</value> 
   </property> 
</configuration>

HDFS-site.xml 파일

<configuration> 
   <property> 
      <name>dfs.replication</name> 
      <value>1</value> 
   </property> 
</configuration>

감사,

해결법

  1. ==============================

    1.HDFS-site.xml에 이러한 속성을 추가

    HDFS-site.xml에 이러한 속성을 추가

    <property> 
       <name>dfs.namenode.name.dir</name> 
       <value>/home/username/hadoop-dfs/name</value> 
    </property>
    <property> 
       <name>dfs.datanode.data.dir</name> 
       <value>/home/username/hadoop-dfs/data</value> 
    </property>
    

    이 hadoop.tmp.dir의 값이, 상기 메타 데이터 블록은 기본적으로 TMP / 아래에 저장된다. / tmp를 내부 내용은 재부팅시 삭제됩니다.

    이러한 속성을 추가 한 후, 네임 노드를 포맷하고 서비스를 시작합니다.

  2. from https://stackoverflow.com/questions/43177670/pseudo-distributed-mode-hadoop by cc-by-sa and MIT license