[HADOOP] HRegionServer는“마스터에게 가동 중임을 알리는 오류”를 표시합니다. 소켓 예외 표시 : 잘못된 인수
HADOOPHRegionServer는“마스터에게 가동 중임을 알리는 오류”를 표시합니다. 소켓 예외 표시 : 잘못된 인수
3 centos 시스템에서 hbase 클러스터를 만들려고합니다. Hadoop (v-2.8.0)이 시작되어 실행중인 HBase (v-1.2.5)에서 실행 중입니다 .Hbase 시작은 양호하지만 HMaster 및 리젼 서버를 시작했지만 여전히 리젼 서버 및 HMaster 로그에 다음 오류가 표시됩니다. 체크인 된 리젼 서버가 없음을 표시합니다.
2017-04-20 19:30:33,950 WARN [regionserver/localhost/127.0.0.1:16020] regionserver.HRegionServer: error telling master we are up
com.google.protobuf.ServiceException: java.net.SocketException: Invalid argument
at org.apache.hadoop.hbase.ipc.AbstractRpcClient.callBlockingMethod(AbstractRpcClient.java:240)
at org.apache.hadoop.hbase.ipc.AbstractRpcClient$BlockingRpcChannelImplementation.callBlockingMethod(AbstractRpcClient.java:336)
at org.apache.hadoop.hbase.protobuf.generated.RegionServerStatusProtos$RegionServerStatusService$BlockingStub.regionServerStartup(RegionServerStatusProtos.java:8982)
at org.apache.hadoop.hbase.regionserver.HRegionServer.reportForDuty(HRegionServer.java:2316)
at org.apache.hadoop.hbase.regionserver.HRegionServer.run(HRegionServer.java:907)
at java.lang.Thread.run(Thread.java:745)
Caused by: java.net.SocketException: Invalid argument
at sun.nio.ch.Net.connect0(Native Method)
at sun.nio.ch.Net.connect(Net.java:454)
at sun.nio.ch.Net.connect(Net.java:446)
at sun.nio.ch.SocketChannelImpl.connect(SocketChannelImpl.java:648)
at org.apache.hadoop.net.SocketIOWithTimeout.connect(SocketIOWithTimeout.java:192)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:529)
at org.apache.hadoop.net.NetUtils.connect(NetUtils.java:493)
at org.apache.hadoop.hbase.ipc.RpcClientImpl$Connection.setupConnection(RpcClientImpl.java:416)
at org.apache.hadoop.hbase.ipc.RpcClientImpl$Connection.setupIOstreams(RpcClientImpl.java:722)
at org.apache.hadoop.hbase.ipc.RpcClientImpl$Connection.writeRequest(RpcClientImpl.java:906)
at org.apache.hadoop.hbase.ipc.RpcClientImpl$Connection.tracedWriteRequest(RpcClientImpl.java:873)
at org.apache.hadoop.hbase.ipc.RpcClientImpl.call(RpcClientImpl.java:1241)
at org.apache.hadoop.hbase.ipc.AbstractRpcClient.callBlockingMethod(AbstractRpcClient.java:227)
내 마스터 노드의 JPS
[hadoop@localhost bin]$ jps
20624 SecondaryNameNode
20800 ResourceManager
20401 NameNode
18061 Jps
17839 HMaster
myregion 노드의 JPS는
[hadoop@localhost bin]$ jps
11168 Jps
482 DataNode
10840 HQuorumPeer
10974 HRegionServer
모든 노드의 hbase-site.xml
<configuration>
<property>
<name>hbase.master.hostname</name>
<value>NameNode</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://NameNode:8020/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>hdfs://NameNode:8020/zookeeper</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>DataNode1,DataNode2</value>
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
</configuration>
regionservers 파일에
DataNode1
DataNode2
모든 노드의 etc / hosts 파일에는 루프백 IP 대신 실제 IP가 포함됩니다.
192.168.00.00 NameNode
192.168.00.00 DataNode1
192.168.00.00 DataNode2
구성은 모든 노드에서 동일합니다. 도움을 주시면 감사하겠습니다.
해결법
-
==============================
1.hbase-site.xml이 모든 문제를 해결 한 모든 지역 서버에 다음 속성을 넣었습니다.
hbase.regionserver.hostname name> DataNode1 value> property> hbase.regionserver.port name> 16020 value> property> hbase-site.xml이 모든 문제를 해결 한 모든 지역 서버에 다음 속성을 넣었습니다.
hbase.regionserver.hostname name> DataNode1 value> property> hbase.regionserver.port name> 16020 value> property> -
==============================
2.나는 같은 문제에 직면했지만 ... 호스트 이름을 변경하면 문제가 해결되었습니다. sudo 호스트 이름 ctl set-hostname new_hostname 나는 마스터와 node1이라는 노드를 가지고 있었다 설정이있는 위키로 연결
나는 같은 문제에 직면했지만 ... 호스트 이름을 변경하면 문제가 해결되었습니다. sudo 호스트 이름 ctl set-hostname new_hostname 나는 마스터와 node1이라는 노드를 가지고 있었다 설정이있는 위키로 연결
from https://stackoverflow.com/questions/43557477/hregionserver-shows-error-telling-master-we-are-up-showing-socket-exception by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] pydoop없이 HDFS Python의 모든 파일 나열 (0) | 2019.09.16 |
---|---|
[HADOOP] StreamExecutionEnvironment를 사용하여 S3 싱크를 사용하여 S3에 쓸 수 없음-Apache Flink 1.1.4 (0) | 2019.09.16 |
[HADOOP] 스파크 작업 오류 GC 오버 헤드 한도를 초과 함 [중복] (0) | 2019.09.16 |
[HADOOP] Hadoop 파일의 분산 캐싱에서 예외를 찾을 수 없음 (0) | 2019.09.16 |
[HADOOP] 프라이빗 클라우드에서 Cloudera Manager를 사용하는 HDFS (0) | 2019.09.16 |