복붙노트

[HADOOP] spb sbt가 오류 libraryDependencies를 컴파일합니다.

HADOOP

spb sbt가 오류 libraryDependencies를 컴파일합니다.

1.2.0-bin-hadoop2.4이고 스칼라 버전은 2.11.7입니다. 나는 sbt를 사용할 수 없으므로 오류가 발생합니다.

~/sparksample$ sbt

시작하기 sbt : 다른 옵션을 위해 -help를 사용하여 호출하십시오. [info] 현재 프로젝트를 Spark Sample로 설정하십시오 (빌드 파일 : / home / beyhan / sparksample /).

> sbt compile

[info] {file : / home / beyhan / sparksample /} default-f390c8 업데이트 중 ... [정보] org.scala-lang # scala-library; 2.11.7 해결 ... [정보] org.apache.spark의 해결 #spark-core_2.11.7; 1.2.0 ... [warn] 모듈을 찾을 수 없음 : org.apache.spark # spark-core_2.11.7; 1.2.0 [warn] ==== local : 시도 [warn] / home /beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [warn] ==== public : http : //repo1.maven을 시도했습니다. org / maven2 / org / apache / spark / spark-core_2.11.7 / 1.2.0 / spark-core_2.11.7-1.2.0.pom [warn] ::::::::::::::::: :::::::::::::::::::::::::::::::::: [경고] :: UNRESOLVED DEPENDENCIES :: [경고] ::::::::: ::::::::::::::::::::::::::::::::::::::::::: [warn] :: org.apache.spark # spark -core_2.11.7; 1.2.0 : 찾을 수 없음 [warn] ::::::::::::::::::::::::::::::::::::::: :::::::::::: [오류] {파일 : / home / beyhan / sparksample /} default-f390c8 / * : 업데이트 : sbt.ResolveException : 해결되지 않은 종속성 : org.apache.spark # spark-core_2.11.7 ; 1.2.0 : 찾을 수 없음 [오류] 총 시간 : 2 초 완료 2015 년 10 월 15 일 11:30 : 오전 47시

어떤 제안? 감사

해결법

  1. ==============================

    1.spark-core_2.11.7 jar 파일이 없습니다. spark-core_2.11이 있기 때문에 spark 의존성에서 유지 보수 버전 번호 .7을 제거해야합니다. 버전 2.11의 모든 스칼라 버전은 호환 가능해야합니다.

    spark-core_2.11.7 jar 파일이 없습니다. spark-core_2.11이 있기 때문에 spark 의존성에서 유지 보수 버전 번호 .7을 제거해야합니다. 버전 2.11의 모든 스칼라 버전은 호환 가능해야합니다.

    최소한의 sbt 파일은 다음과 같이 보일 수 있습니다.

    name := "Simple Project"
    
    version := "1.0"
    
    scalaVersion := "2.11.7"
    
    libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1"
    
  2. ==============================

    2.@Till Rohrmann은 spark-core_2.11.7와 같은 것이 없다고 제안 했으므로 build.sbt가 해당 라이브러리를 참조하는 것처럼 보입니다.

    @Till Rohrmann은 spark-core_2.11.7와 같은 것이 없다고 제안 했으므로 build.sbt가 해당 라이브러리를 참조하는 것처럼 보입니다.

    /home/beyhan/sparksample/build.sbt 파일을 편집하여 해당 라이브러리에 대한 참조를 제거하는 것이 좋습니다.

    올바른 참조는 다음과 같습니다.

    libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.2.0"
    

    spark-core에는 버전 2.11.7뿐만 아니라 다른 스파크 라이브러리도있을 수 있습니다.

  3. ==============================

    3.[info] {file : / home / beyhan / sparksample /} default-f390c8 업데이트 중 ... [정보] org.scala-lang # scala-library; 2.11.7 해결 ... [정보] org.apache.spark의 해결 # 경고 : 모듈을 찾을 수 없음 : org.apache.spark # spark-core_2.11.7; 1.2.0 [경고] ==== 로컬 : 시도 [경고] /home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [warn] ==== public : 시도 [warn]

    [info] {file : / home / beyhan / sparksample /} default-f390c8 업데이트 중 ... [정보] org.scala-lang # scala-library; 2.11.7 해결 ... [정보] org.apache.spark의 해결 # 경고 : 모듈을 찾을 수 없음 : org.apache.spark # spark-core_2.11.7; 1.2.0 [경고] ==== 로컬 : 시도 [경고] /home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [warn] ==== public : 시도 [warn]

  4. from https://stackoverflow.com/questions/33143665/spark-sbt-compile-error-librarydependencies by cc-by-sa and MIT license