복붙노트

[HADOOP] 하둡 설치 : 네임 노드를 시작할 수 없습니다

HADOOP

하둡 설치 : 네임 노드를 시작할 수 없습니다

현재 내 우분투 14.10 (32 비트 utopic)에 hadoop-2.6.0을 설치하려고합니다. 나는 여기에서 지시를 따랐다.

http://www.itzgeek.com/how-tos/linux/ubuntu-how-tos/install-apache-hadoop-ubuntu-14-10-centos-7-single-node-cluster.html#axzz3X2DuWaxQ

그러나 namenode를 포맷하려고하면 namenode를 시작할 수 없습니다.

이것이 hdfs 또는 hadoop namenode -format을 시도 할 때 계속받는 것입니다.

15/04/11 16:32:13 FATAL namenode.NameNode: Fialed to start namenode
java.lang.IllegalArgumentException: URI has an authority component
    at java.io.File.<init>(File.java:423)
    at             org.apache.hadoop.hdfs.server.namenode.NNSStorage.getStorageDirectory(NNStorage.java:329)
    at
org.apache.hadoop.hdfs.server.namenode.FSEditLog.initJournals(FSEditLog.java: 270)
    at
org.apache.hadoop.hdfs.server.namenode.FSEditLog.initJournalsForWrite(FSEditLog.java:241)
    at     org.apache.hadoop.hdfs.server.namenode.NameNode.format(NameNode.java:935)
    at     org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1379)
    at     org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1504)
15/04/11 16:32:13 INFO util.ExitUtil: Exiting with status 1
15/04/11 16:32:14 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at ThinkPad-Edge-E540/127.0.1.1
************************************************************/

나는 리눅스와 새로운 것에 익숙하다. 이 문제에 대해 도와주세요. 또한, 처음 hadoop을 설치하려고 할 때 다음과 같은 오류 메시지가 나타납니다.

    java.net.ConnectException: Call From ThinkPad-Edge-E540/127.0.1.1 to localhost:9000 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused

나중에, hadoop 2.6.0을 제거했고 현재 위의 링크에서 보여지는 것처럼 현재 지시를 따르려고합니다.

최신 정보

이전 버전에서 설치 한 이전에 설치된 Java (jdk1.7.0)를 모두 제거했습니다. 그러나 오류 메시지는 여전히 존재합니다.

최신 정보

이것이 내 etc / hosts에 표시되는 것입니다.

127.0.0.1 localhost
127.0.1.1 myname-mycomputer (I have commented out this line per suggestion)

#The following lines are desirable for IPv6 capable hosts
::1       ip6-localhost  ip6-loopback
fe00::0   ip6-localnet
ff00:0    ip6-mcastprefix
ff02::1   ip6-allnodes
ff02::2   ip6-allrouters

해결법

  1. ==============================

    1.이 문제는 hdfs-site.xml에서 namenode 및 datanode에 대해 잘못된 경로를 지정하고 core-site.xml에서 tmp dir 경로를 잘못 지정하면 발생합니다. 경로는 잘 형식화되어야합니다 (예 :

    이 문제는 hdfs-site.xml에서 namenode 및 datanode에 대해 잘못된 경로를 지정하고 core-site.xml에서 tmp dir 경로를 잘못 지정하면 발생합니다. 경로는 잘 형식화되어야합니다 (예 :

    <property>
        <name>dfs.namenode.edits.dir</name>
        <value>file:///home/hadoop/hadoop-content/hdfs/namenode</value>
    </property>
    
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:///home/hadoop/hadoop-content/hdfs/datanode</value>
    </property>
    

    core-site.xml의 임시 디렉토리의 경우 다음과 같습니다.

    <configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/hadoop-content/tmp</value>
    </property>
    

    때때로 우리는-file : ///

  2. ==============================

    2./ etc / hosts에서 :

    / etc / hosts에서 :

    1.이 줄을 추가하십시오 :

    your-ip-address    your-host-name
    

    예 : 192.168.1.8 마스터

    / etc / hosts에 있음 :

    2. 127.0.1.1로 줄을 삭제합니다 (루프백이 발생 함)

    3. 핵심 사이트에서 localhost를 your-ip 또는 your-hostname으로 변경하십시오.

    이제 클러스터를 다시 시작하십시오.

  3. from https://stackoverflow.com/questions/29583699/hadoop-installation-namenode-cannot-be-started by cc-by-sa and MIT license