[HADOOP] spb sbt가 오류 libraryDependencies를 컴파일합니다.
HADOOPspb sbt가 오류 libraryDependencies를 컴파일합니다.
1.2.0-bin-hadoop2.4이고 스칼라 버전은 2.11.7입니다. 나는 sbt를 사용할 수 없으므로 오류가 발생합니다.
~/sparksample$ sbt
시작하기 sbt : 다른 옵션을 위해 -help를 사용하여 호출하십시오. [info] 현재 프로젝트를 Spark Sample로 설정하십시오 (빌드 파일 : / home / beyhan / sparksample /).
> sbt compile
[info] {file : / home / beyhan / sparksample /} default-f390c8 업데이트 중 ... [정보] org.scala-lang # scala-library; 2.11.7 해결 ... [정보] org.apache.spark의 해결 #spark-core_2.11.7; 1.2.0 ... [warn] 모듈을 찾을 수 없음 : org.apache.spark # spark-core_2.11.7; 1.2.0 [warn] ==== local : 시도 [warn] / home /beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [warn] ==== public : http : //repo1.maven을 시도했습니다. org / maven2 / org / apache / spark / spark-core_2.11.7 / 1.2.0 / spark-core_2.11.7-1.2.0.pom [warn] ::::::::::::::::: :::::::::::::::::::::::::::::::::: [경고] :: UNRESOLVED DEPENDENCIES :: [경고] ::::::::: ::::::::::::::::::::::::::::::::::::::::::: [warn] :: org.apache.spark # spark -core_2.11.7; 1.2.0 : 찾을 수 없음 [warn] ::::::::::::::::::::::::::::::::::::::: :::::::::::: [오류] {파일 : / home / beyhan / sparksample /} default-f390c8 / * : 업데이트 : sbt.ResolveException : 해결되지 않은 종속성 : org.apache.spark # spark-core_2.11.7 ; 1.2.0 : 찾을 수 없음 [오류] 총 시간 : 2 초 완료 2015 년 10 월 15 일 11:30 : 오전 47시
어떤 제안? 감사
해결법
-
==============================
1.spark-core_2.11.7 jar 파일이 없습니다. spark-core_2.11이 있기 때문에 spark 의존성에서 유지 보수 버전 번호 .7을 제거해야합니다. 버전 2.11의 모든 스칼라 버전은 호환 가능해야합니다.
spark-core_2.11.7 jar 파일이 없습니다. spark-core_2.11이 있기 때문에 spark 의존성에서 유지 보수 버전 번호 .7을 제거해야합니다. 버전 2.11의 모든 스칼라 버전은 호환 가능해야합니다.
최소한의 sbt 파일은 다음과 같이 보일 수 있습니다.
name := "Simple Project" version := "1.0" scalaVersion := "2.11.7" libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1"
-
==============================
2.@Till Rohrmann은 spark-core_2.11.7와 같은 것이 없다고 제안 했으므로 build.sbt가 해당 라이브러리를 참조하는 것처럼 보입니다.
@Till Rohrmann은 spark-core_2.11.7와 같은 것이 없다고 제안 했으므로 build.sbt가 해당 라이브러리를 참조하는 것처럼 보입니다.
/home/beyhan/sparksample/build.sbt 파일을 편집하여 해당 라이브러리에 대한 참조를 제거하는 것이 좋습니다.
올바른 참조는 다음과 같습니다.
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.2.0"
spark-core에는 버전 2.11.7뿐만 아니라 다른 스파크 라이브러리도있을 수 있습니다.
-
==============================
3.[info] {file : / home / beyhan / sparksample /} default-f390c8 업데이트 중 ... [정보] org.scala-lang # scala-library; 2.11.7 해결 ... [정보] org.apache.spark의 해결 # 경고 : 모듈을 찾을 수 없음 : org.apache.spark # spark-core_2.11.7; 1.2.0 [경고] ==== 로컬 : 시도 [경고] /home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [warn] ==== public : 시도 [warn]
[info] {file : / home / beyhan / sparksample /} default-f390c8 업데이트 중 ... [정보] org.scala-lang # scala-library; 2.11.7 해결 ... [정보] org.apache.spark의 해결 # 경고 : 모듈을 찾을 수 없음 : org.apache.spark # spark-core_2.11.7; 1.2.0 [경고] ==== 로컬 : 시도 [경고] /home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [warn] ==== public : 시도 [warn]
from https://stackoverflow.com/questions/33143665/spark-sbt-compile-error-librarydependencies by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 이미지의 하둡 및 3D 렌더링 (0) | 2019.07.02 |
---|---|
[HADOOP] hadoop 클러스터가 안전 모드로 실행되는 이유는 무엇입니까? (0) | 2019.07.02 |
[HADOOP] $ SPARK_HOME에 포함 된 hive-site.xml은 어떻게 생겼습니까? (0) | 2019.07.02 |
[HADOOP] Hadoop - thread "main"의 예외 java.lang.NullPointerException (0) | 2019.07.02 |
[HADOOP] 테이블을 생성하는 동안 하이브에서 한 번에 2 개의 필드 종결 자 (예 : ','및 '.')를 사용할 수 있습니까? (0) | 2019.07.02 |