[HADOOP] 지원되는 버전 라이브러리 Spark은 무엇입니까?
HADOOP지원되는 버전 라이브러리 Spark은 무엇입니까?
SparkSession으로 코드 스파크.
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
val conf = SparkSession.builder
.master("local")
.appName("testing")
.enableHiveSupport() // <- enable Hive support.
.getOrCreate()
코드 pom.xml
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<modelVersion>4.0.0</modelVersion>
<groupId>com.cms.spark</groupId>
<artifactId>cms-spark</artifactId>
<version>0.0.1-SNAPSHOT</version>
<name>cms-spark</name>
<pluginRepositories>
<pluginRepository>
<id>scala-tools.org</id>
<name>Scala-tools Maven2 Repository</name>
<url>http://scala-tools.org/repo-releases</url>
</pluginRepository>
</pluginRepositories>
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.10</artifactId>
<version>1.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.10</artifactId>
<version>1.6.0</version>
</dependency>
<dependency>
<groupId>com.databricks</groupId>
<artifactId>spark-csv_2.10</artifactId>
<version>1.4.0</version>
</dependency>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.10</artifactId>
<version>1.5.2</version>
</dependency>
<dependency>
<groupId>org.jsoup</groupId>
<artifactId>jsoup</artifactId>
<version>1.8.3</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<version>2.5.3</version>
<configuration>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
</configuration>
<executions>
<execution>
<id>make-assembly</id> <!-- this is used for inheritance merges -->
<phase>install</phase> <!-- bind to the packaging phase -->
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
나는 약간 문제가있다. 나는 SparkSession으로 코드 스파크를 만들고, SparkSession은 SparkSql 라이브러리에서 찾을 수 없다. 그래서 iam은 코드 스파크를 실행할 수 없습니다. SparkSession 라이브러리를 SparkSession에서 찾을 수있는 버전은 무엇입니까? 코드 pom.xml을 제공합니다.
감사.
해결법
-
==============================
1.코어 및 SQL 아티팩트가 필요합니다.
코어 및 SQL 아티팩트가 필요합니다.
<repositories> <repository> <id>cloudera</id> <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url> </repository> </repositories> <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>2.0.0-cloudera1-SNAPSHOT</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>2.0.0-cloudera1-SNAPSHOT</version> </dependency> </dependencies>
-
==============================
2.SparkSession을 사용하려면 Spark 2.0이 필요합니다. 현재 Maven 중앙 스냅 샷 저장소에서 사용할 수 있습니다.
SparkSession을 사용하려면 Spark 2.0이 필요합니다. 현재 Maven 중앙 스냅 샷 저장소에서 사용할 수 있습니다.
groupId = org.apache.spark artifactId = spark-core_2.11 version = 2.0.0-SNAPSHOT
다른 스파크 아티팩트에 대해 동일한 버전을 지정해야합니다. 2.0은 여전히 베타 버전이며 AFAIK 약 1 개월 후에 안정적 일 것으로 예상됩니다.
최신 정보. 또는 Spark 2.0의 Cloudera fork를 사용할 수 있습니다.
groupId = org.apache.spark artifactId = spark-core_2.11 version = 2.0.0-cloudera1-SNAPSHOT
Cloudera 저장소는 Maven 저장소 목록에 지정해야합니다.
<repository> <id>cloudera</id> <url>https://repository.cloudera.com/artifactory/cloudera-repos/</url> </repository>
from https://stackoverflow.com/questions/37337461/what-is-version-library-spark-supported-sparksession by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 배열 복합 유형 열에 값 삽입 하이브 (0) | 2019.06.08 |
---|---|
[HADOOP] Hadoop 의사 분산 모드에서 모든 코어의 완전한 활용 (0) | 2019.06.08 |
[HADOOP] 로컬 시스템에서 디렉토리를 hdfs java 코드로 복사 (0) | 2019.06.08 |
[HADOOP] HDFS에서 10 일보다 오래된 파일 삭제 (0) | 2019.06.08 |
[HADOOP] 문제 : Hbase에서 데이터를 검색하는 Spark 셸의 스칼라 코드 (0) | 2019.06.08 |