[HADOOP] 하둡 : 파일은 ... 0 만 노드에 복제 대신 한 수
HADOOP하둡 : 파일은 ... 0 만 노드에 복제 대신 한 수
나는 8 노드 IB (OFED-1.5.3-4.0.42) 클러스터에서 하둡-RDMA를 배포하려고 노력하고 (파일 a.k.a ... 단지 1 대신 0 노드로 복제 될 수 있습니다) 다음과 같은 문제에있어입니다 :
frolo@A11:~/hadoop-rdma-0.9.8> ./bin/hadoop dfs -copyFromLocal ../pg132.txt /user/frolo/input/pg132.txt Warning: $HADOOP_HOME is deprecated. 14/02/05 19:06:30 WARN hdfs.DFSClient: DataStreamer Exception: java.lang.reflect.UndeclaredThrowableException at com.sun.proxy.$Proxy1.addBlock(Unknown Source) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(Unknown Source) at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(Unknown Source) at com.sun.proxy.$Proxy1.addBlock(Unknown Source) at org.apache.hadoop.hdfs.From.Code(Unknown Source) at org.apache.hadoop.hdfs.From.F(Unknown Source) at org.apache.hadoop.hdfs.From.F(Unknown Source) at org.apache.hadoop.hdfs.The.run(Unknown Source) Caused by: org.apache.hadoop.ipc.RemoteException: java.io.IOException: File /user/frolo/input/pg132.txt could only be replicated to 0 nodes, instead of 1 at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getAdditionalBlock(Unknown Source) at org.apache.hadoop.hdfs.server.namenode.NameNode.addBlock(Unknown Source) at sun.reflect.GeneratedMethodAccessor6.invoke(Unknown Source) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) at org.apache.hadoop.ipc.RPC$Server.call(Unknown Source) at org.apache.hadoop.ipc.rdma.madness.Code(Unknown Source) at org.apache.hadoop.ipc.rdma.madness.run(Unknown Source) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(Unknown Source) at org.apache.hadoop.ipc.rdma.be.run(Unknown Source) at org.apache.hadoop.ipc.rdma.RDMAClient.Code(Unknown Source) at org.apache.hadoop.ipc.rdma.RDMAClient.call(Unknown Source) at org.apache.hadoop.ipc.Tempest.invoke(Unknown Source) ... 12 more` 14/02/05 19:06:30 WARN hdfs.DFSClient: Error Recovery for null bad datanode[0] nodes == null 14/02/05 19:06:30 WARN hdfs.DFSClient: Could not get block locations. Source file "/user/frolo/input/pg132.txt" - Aborting... 14/02/05 19:06:30 INFO hdfs.DFSClient: exception in isClosed
내가 HDFS 로컬 파일 시스템에서 복사를 시작할 때 데이터가되는 DataNode로 전송되지 않는 것 같습니다. 나는 데이타 노드 가용성을 테스트 :
frolo@A11:~/hadoop-rdma-0.9.8> ./bin/hadoop dfsadmin -report Warning: $HADOOP_HOME is deprecated. Configured Capacity: 0 (0 KB) Present Capacity: 0 (0 KB) DFS Remaining: 0 (0 KB) DFS Used: 0 (0 KB) DFS Used%: �% Under replicated blocks: 0 Blocks with corrupt replicas: 0 Missing blocks: 0` ------------------------------------------------- Datanodes available: 0 (4 total, 4 dead)` `Name: 10.10.1.13:50010 Decommission Status : Normal Configured Capacity: 0 (0 KB) DFS Used: 0 (0 KB) Non DFS Used: 0 (0 KB) DFS Remaining: 0(0 KB) DFS Used%: 100% DFS Remaining%: 0% Last contact: Wed Feb 05 19:02:54 MSK 2014 Name: 10.10.1.14:50010 Decommission Status : Normal Configured Capacity: 0 (0 KB) DFS Used: 0 (0 KB) Non DFS Used: 0 (0 KB) DFS Remaining: 0(0 KB) DFS Used%: 100% DFS Remaining%: 0% Last contact: Wed Feb 05 19:02:54 MSK 2014 Name: 10.10.1.16:50010 Decommission Status : Normal Configured Capacity: 0 (0 KB) DFS Used: 0 (0 KB) Non DFS Used: 0 (0 KB) DFS Remaining: 0(0 KB) DFS Used%: 100% DFS Remaining%: 0% Last contact: Wed Feb 05 19:02:54 MSK 2014 Name: 10.10.1.11:50010 Decommission Status : Normal Configured Capacity: 0 (0 KB) DFS Used: 0 (0 KB) Non DFS Used: 0 (0 KB) DFS Remaining: 0(0 KB) DFS Used%: 100% DFS Remaining%: 0% Last contact: Wed Feb 05 19:02:55 MSK 2014
그리고 성공했다 HDFS 파일 시스템 mkdir 명령어하려고 노력했다. 하둡 데몬 다시 시작하면 어떤 긍정적 인 효과를 생산하지 않았습니다.
당신은이 문제를 좀 도와 주 시겠어요? 감사합니다.
베스트, 알렉스
해결법
-
==============================
1.나는 내 문제를 발견했다. 이 문제는 NFS 파티션으로 설정되어 hadoop.tmp.dir의 구성과 관련된했다. 기본적으로는 지역 FS입니다 / tmp로 구성되어 있습니다. 코어로부터의 site.xml hadoop.tmp.dir 제거한 후에도 문제가 해결되었다.
나는 내 문제를 발견했다. 이 문제는 NFS 파티션으로 설정되어 hadoop.tmp.dir의 구성과 관련된했다. 기본적으로는 지역 FS입니다 / tmp로 구성되어 있습니다. 코어로부터의 site.xml hadoop.tmp.dir 제거한 후에도 문제가 해결되었다.
-
==============================
2.내 경우에는이 문제가 포의 50010에 방화벽을 열어 해결되었습니다
내 경우에는이 문제가 포의 50010에 방화벽을 열어 해결되었습니다
from https://stackoverflow.com/questions/21581448/hadoop-file-could-only-be-replicated-to-0-nodes-instead-of-1 by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 맵리 듀스 올드 API - 명령 행 인수를 전달하면지도합니다 (0) | 2019.10.14 |
---|---|
[HADOOP] 쓰기에서 빈 값 () 메소드 : 하둡 맵리 듀스에서 사용자 정의 데이터 유형 (0) | 2019.10.14 |
[HADOOP] 아파치 수로는 트위터 API의 SSL / TLS 필수 요구 사항 후 트위터 데이터를 스트리밍 중단했다. (0) | 2019.10.14 |
[HADOOP] HBase를 맵리 듀스에서 Nullpointer 예외 (0) | 2019.10.14 |
[HADOOP] 하이브 버전 0.14.0 및 RDBC 패키지를 통해 R에서 JDBC 연결 (0) | 2019.10.14 |