[HADOOP] 하둡 자바 클래스를 찾을 수 없습니다
HADOOP하둡 자바 클래스를 찾을 수 없습니다
스레드 "주요"java.lang.ClassNotFoundException가 예외 : WordCount-은> 많은 답변이 문제와 관련된 내가 확실히 내기 위해 나에게 시간이 걸렸다 다시 작은 점을 놓친 거지처럼 보인다. 나는 시도하고 작동하지 않았다 경로, 코드 자체를 다른 가능한 해결책에 대해 가능한 한 명확하게하려고합니다. 나는 모든 것이 마지막 단계까지 작업 한 나의 올바르게 하둡을 구성하는 방법에 대한 좀 확신합니다. 하지만 여전히 세부 사항을 게시 :
>
HADOOP VARIABLES START
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export HADOOP_INSTALL=/usr/local/hadoop
export HADOOP_CLASSPATH=/usr/lib/jvm/java-8-oracle/lib/tools.jar
export PATH=$PATH:$HADOOP_INSTALL/bin
export PATH=$PATH:$HADOOP_INSTALL/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
#export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native
#export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"
export JAVA_HOME=/usr/lib/jvm/java-8-oracle
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$JAVA_HOME/bin
#HADOOP VARIABLES END
클래스 자체 :
package com.cloud.hw03;
/**
* Hello world!
*
*/
import java.io.IOException;
import java.util.StringTokenizer;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IntWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Job;
import org.apache.hadoop.mapreduce.Mapper;
import org.apache.hadoop.mapreduce.Reducer;
import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
public class WordCount {
public static class TokenizerMapper
extends Mapper<Object, Text, Text, IntWritable>{
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
public void map(Object key, Text value, Context context
) throws IOException, InterruptedException {
StringTokenizer itr = new StringTokenizer(value.toString());
while (itr.hasMoreTokens()) {
word.set(itr.nextToken());
context.write(word, one);
}
}
}
public static class IntSumReducer
extends Reducer<Text,IntWritable,Text,IntWritable> {
private IntWritable result = new IntWritable();
public void reduce(Text key, Iterable<IntWritable> values,
Context context
) throws IOException, InterruptedException {
int sum = 0;
for (IntWritable val : values) {
sum += val.get();
}
result.set(sum);
context.write(key, result);
}
}
public static void main(String[] args) throws Exception {
Configuration conf = new Configuration();
Job job = Job.getInstance(conf, "wordcount");
job.setMapperClass(TokenizerMapper.class);
job.setCombinerClass(IntSumReducer.class);
job.setReducerClass(IntSumReducer.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.setJarByClass(WordCount.class);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
System.exit(job.waitForCompletion(true) ? 0 : 1);
}
}
나는 컴파일하고 실행하기 위해 무슨 짓을했는지 :
하둡 항아리 WordCount.jar 단어 수 / 입력 / inputfile01 / 입 / outputfile01
결과는 다음과 같습니다 "주"java.lang.ClassNotFoundException가 스레드에서 예외 : 단어 수
내가 WordCount.class와 같은 디렉토리 안에 있고 내가 그 같은 디렉토리에 내 jar 파일을 생성하기 때문에, 나는 단어 수에 대한 전체 경로를 지정하고 있지 않다, 그래서 내가이 디렉토리에 위의 2 명령을 실행하고 있습니다 :
난 이미 job.setJarByClass (WordCount.class)를 추가; 그래서 코드 번호 도움이됩니다. 나는 대답에 시간을 보내는 감사하겠습니다! 나는 다시 예기치 않은 일을하고 있어요 확신하고 4 시간 동안 그것을 알아낼 수 없습니다
해결법
-
==============================
1.하둡 사이트의 단어 수의 예제 코드는 패키지를 사용하지 않습니다
하둡 사이트의 단어 수의 예제 코드는 패키지를 사용하지 않습니다
당신이 하나가 않기 때문에, 당신은 정규화 된 클래스를 실행하는 것입니다. 일반 자바 응용 프로그램과 동일한 방법
hadoop jar WordCount.jar com.cloud.hw03.WordCount
당신이 실제로 Maven 프로젝트가 있다면 또한, 다음 com.sun.tools.javac.Main가 정확하지 하둡. 당신은 실제로 컴파일하고 모든 클래스뿐만 아니라 단어 수 * 파일과 함께 JAR를 만들 메이븐을 사용
예를 들어, pom.xml 파일이있는 폴더에서
mvn package
그렇지 않으면, 당신은 상위 디렉토리에 있어야합니다
hadoop com.sun.tools.javac.Main ./com/cloud/hw03/WordCount.java
그리고 그 디렉토리에서 또한 항아리 CF 명령을 실행
from https://stackoverflow.com/questions/50380543/hadoop-java-class-cannot-be-found by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 하이브 쿼리를 실행할 때 권한이 거부 (0) | 2019.10.01 |
---|---|
[HADOOP] 하이브 테이블에 대한 JSON 파일의 항목 구분 (0) | 2019.10.01 |
[HADOOP] 오류 하이브에서 HBase를에 삽입하는 동안 (0) | 2019.10.01 |
[HADOOP] 하이브에서 XML 파일을 처리하는 방법 (0) | 2019.10.01 |
[HADOOP] S3AFileSystem는 - FileAlreadyExistsException 접두사는 디렉토리 트리의 파일 및 일부 경우 (0) | 2019.10.01 |