[HADOOP] hadoop2.2.0 추가 파일이 발생했습니다. AlreadyBeingCreatedException
HADOOPhadoop2.2.0 추가 파일이 발생했습니다. AlreadyBeingCreatedException
내가 hadoop2.2.0 추가 작업에 대한 문제를 만났습니다. HDFS Java API에 의해 hdfs 파일에 몇 바이트를 추가합니다. 파일이 작동을 추가하기 전에 존재하지 않으면 대상 파일을 만듭니다. 코드는 다음과 같습니다.
String fileUri = "hdfs://hadoopmaster:9000/in/append_test.txt";
// create the hdfs file, if not exists
HdfsClient.createPathIfNotExist(fileUri);
// do 5 times append operation
for (int i=0; i<5; i++){
HdfsClient.appendTo(fileUri, ("append content"+i).getBytes("UTF-8"));
}
createPathIfNotExist 함수는 다음과 같습니다.
Path p = null;
FileSystem fs = null;
try {
fs = FileSystem.get(URI.create(uri), conf);
p = new Path(uri);
if (!fs.exists(p)) {
if (uri.charAt(uri.length() - 1) == '/'){ //create a directory
if(fs.mkdirs(p)){
// create successfully
}
}else{ //create a file
FSDataOutputStream fos = fs.create(p);
fos.close();
}
} else{
System.out.println(uri + "existing");
}
} catch (IOException e) {
e.printStackTrace();
} finally{
if (fs != null)
try {
fs.close();
fs = null;
} catch (IOException e) {
e.printStackTrace();
}
}
appendTo 함수는 다음과 같습니다.
ByteArrayInputStream in = null;
OutputStream out = null;
FileSystem fs = null;
try {
in = new ByteArrayInputStream(bytes);
fs = FileSystem.get(URI.create(uri), conf);
out = fs.append(new Path(uri)); //get append outputstream
IOUtils.copyBytes(in, out, bufferSize, false);
} catch(Exception e){
e.printStackTrace();
} finally{
if (in != null) IOUtils.closeStream(in);
if (out != null) IOUtils.closeStream(out);
if (fs != null){
try {
fs.close();
fs = null;
} catch (IOException e) {
e.printStackTrace();
}
}
}
결과는 append_test.txt가 생성되었지만 내용은 다음과 같습니다.
append content0
그리고 예외가 발생합니다 :
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.protocol.AlreadyBeingCreatedException): Failed to create file [/in/append_test.txt] for [DFSClient_NONMAPREDUCE_-1148656837_1] on client [192.168.141.1], because this file is already being created by [DFSClient_NONMAPREDUCE_2099912242_1] on [192.168.141.1]
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.recoverLeaseInternal(FSNamesystem.java:2320)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.appendFileInternal(FSNamesystem.java:2153)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.appendFileInt(FSNamesystem.java:2386)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.appendFile(FSNamesystem.java:2347)
at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.append(NameNodeRpcServer.java:508)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolServerSideTranslatorPB.append(ClientNamenodeProtocolServerSideTranslatorPB.java:320)
at org.apache.hadoop.hdfs.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.callBlockingMethod(ClientNamenodeProtocolProtos.java:59572)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Server$ProtoBufRpcInvoker.call(ProtobufRpcEngine.java:585)
at org.apache.hadoop.ipc.RPC$Server.call(RPC.java:928)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2048)
at org.apache.hadoop.ipc.Server$Handler$1.run(Server.java:2044)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.ipc.Server$Handler.run(Server.java:2042)
at org.apache.hadoop.ipc.Client.call(Client.java:1347)
at org.apache.hadoop.ipc.Client.call(Client.java:1300)
at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206)
at com.sun.proxy.$Proxy10.append(Unknown Source)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:186)
at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
at com.sun.proxy.$Proxy10.append(Unknown Source)
at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.append(ClientNamenodeProtocolTranslatorPB.java:245)
at org.apache.hadoop.hdfs.DFSClient.callAppend(DFSClient.java:1480)
at org.apache.hadoop.hdfs.DFSClient.append(DFSClient.java:1520)
at org.apache.hadoop.hdfs.DFSClient.append(DFSClient.java:1508)
at org.apache.hadoop.hdfs.DistributedFileSystem$4.doCall(DistributedFileSystem.java:310)
at org.apache.hadoop.hdfs.DistributedFileSystem$4.doCall(DistributedFileSystem.java:306)
at org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81)
at org.apache.hadoop.hdfs.DistributedFileSystem.append(DistributedFileSystem.java:306)
at org.apache.hadoop.fs.FileSystem.append(FileSystem.java:1160)
at org.lh.blog.message.hadoop.HdfsClient$2.run(HdfsClient.java:130)
at org.lh.blog.message.hadoop.HdfsClient$2.run(HdfsClient.java:1)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:356)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1471)
at org.lh.blog.message.hadoop.HdfsClient.appendTo(HdfsClient.java:121)
at org.lh.blog.message.hadoop.HdfsClient.appendTo(HdfsClient.java:110)
at org.lh.blog.message.test.HdfsClientTests.testCreateFileBeforeAppend(HdfsClientTests.java:26)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.junit.runners.model.FrameworkMethod$1.runReflectiveCall(FrameworkMethod.java:45)
at org.junit.internal.runners.model.ReflectiveCallable.run(ReflectiveCallable.java:15)
at org.junit.runners.model.FrameworkMethod.invokeExplosively(FrameworkMethod.java:42)
at org.junit.internal.runners.statements.InvokeMethod.evaluate(InvokeMethod.java:20)
at org.junit.runners.ParentRunner.runLeaf(ParentRunner.java:263)
at org.junit.runners.BlockJUnit4ClassRunner.runChild(BlockJUnit4ClassRunner.java:68)
at org.junit.runners.BlockJUnit4ClassRunner.runChild(BlockJUnit4ClassRunner.java:47)
at org.junit.runners.ParentRunner$3.run(ParentRunner.java:231)
at org.junit.runners.ParentRunner$1.schedule(ParentRunner.java:60)
at org.junit.runners.ParentRunner.runChildren(ParentRunner.java:229)
at org.junit.runners.ParentRunner.access$000(ParentRunner.java:50)
at org.junit.runners.ParentRunner$2.evaluate(ParentRunner.java:222)
at org.junit.runners.ParentRunner.run(ParentRunner.java:300)
at org.eclipse.jdt.internal.junit4.runner.JUnit4TestReference.run(JUnit4TestReference.java:50)
at org.eclipse.jdt.internal.junit.runner.TestExecution.run(TestExecution.java:38)
at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.runTests(RemoteTestRunner.java:467)
at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.runTests(RemoteTestRunner.java:683)
at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.run(RemoteTestRunner.java:390)
at org.eclipse.jdt.internal.junit.runner.RemoteTestRunner.main(RemoteTestRunner.java:197)
즉, nonexist 파일을 만든 후에 한 번만 작업을 추가하고 다른 네 가지 추가 작업을 수행하지 못하면 위의 오류가 발생합니다. 추가하기 전에 파일을 만들었지 만 AlreadyBeingCreatedException이 표시됩니다. 혼란 스럽습니다.
나는 또한 몇 가지 시도가있다. java API로 만든 hdfs 파일을 찾았습니다. 모두 추가 작업을 수행 할 수 없습니다. 그러나 hdfs 명령 ( "hdfs dfs -put")에 의해 생성 된 hdfs 파일은 추가 작업을 수행 할 수 있습니다.
도와 주실 수 있나요? 제안 해주세요.
감사 & 감사합니다.
해결법
-
==============================
1.이 문제는 hadoop의 "append code"버그로 인해 발생합니다. 자세한 내용은이 기사에서 확인할 수 있습니다. HDFS의 파일에 내용 추가
이 문제는 hadoop의 "append code"버그로 인해 발생합니다. 자세한 내용은이 기사에서 확인할 수 있습니다. HDFS의 파일에 내용 추가
이 문제에 대한 해결책도 제공됩니다. 또한 파일 생성 후 fs에 close () 메서드를 호출하고 추가 작업 직전에 FileSystem을 다시 가져올 수 있습니다. 나를 위해 잘 작동하지만, 그것은 당신에게 달렸습니다.
-
==============================
2.투기 액션을 false로 설정할 수 있습니다.
투기 액션을 false로 설정할 수 있습니다.
job.setSpeculativeExecution(false);
또는 타임 스탬프 또는 경로의 다른 변수를 사용하여 임시 위치에 파일을 만들고 결과를 나중에 기본 경로에 병합 할 수 있습니다
from https://stackoverflow.com/questions/21655634/hadoop2-2-0-append-file-occur-alreadybeingcreatedexception by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] JSP 서블릿 예외 (0) | 2019.07.22 |
---|---|
[HADOOP] 파이썬에서 하둡 스트리밍 작업 실패 (성공하지 못함) (0) | 2019.07.22 |
[HADOOP] HBase 테이블의 영역 수를 늘리는 방법 (0) | 2019.07.22 |
[HADOOP] 로컬 hadoop과 푸른 하늘 방울 저장소와 연결할 수 없습니다 (0) | 2019.07.22 |
[HADOOP] Pig를 사용하여 열의 JSON 문자열을 구문 분석하는 방법 (0) | 2019.07.22 |