[HADOOP] 윈도우 기능을 사용하여 지원 스파크
HADOOP윈도우 기능을 사용하여 지원 스파크
나는 (내가 python.I으로 불꽃을 사용하고 1.6.0..while 스파크 버전을 사용하여 Windows 기능은 내가 내 쿼리 창 기능을 사용하려고 할 때 같이 사용하고있는 스파크의 버전에서 지원되지 않은 것을 발견하고 당신은 내가 여러 가지를 검색하고 내가 스파크 버전 1.4.0을 사용할 필요가있다. 나 또한 더 luck.Some 게시물했던 어떤 발견 하이브 functionality'.Following와 불꽃을 구축하는 데 필요한 '로) sparksql를 사용하여 나에게 오류를 준 내가 할 수있는 올바른 방법을 발견하지 않았다 functionality.But 하이브와 스파크를 구축 할 것을 제안했다. 사용할 때 스파크 1.4.0.I는 다음과 같은 오류가 발생했습니다.
raise ValueError("invalid mode %r (only r, w, b allowed)")
ValueError: invalid mode %r (only r, w, b allowed)
16/04/04 14:17:17 WARN PythonRDD: Incomplete task interrupted: Attempting to kil
l Python Worker
16/04/04 14:17:17 INFO HadoopRDD: Input split: file:/C:/Users/test
esktop/spark-1.4.0-bin-hadoop2.4/test:910178+910178
16/04/04 14:17:17 INFO Executor: Executor killed task 1.0 in stage 1.0 (TID 2)
16/04/04 14:17:17 WARN TaskSetManager: Lost task 1.0 in stage 1.0 (TID 2, localh
ost): TaskKilled (killed intentionally)
16/04/04 14:17:17 INFO TaskSchedulerImpl: Removed TaskSet 1.0, whose tasks have
all completed, from pool
해결법
-
==============================
1.나는 이것이 내가 비슷한 질문에 대답 세 번째이라고 생각 :
나는 이것이 내가 비슷한 질문에 대답 세 번째이라고 생각 :
윈도우 기능은 일정한는 SqlContext HiveContext와하지를 지원합니다.
하이브 지원 불꽃을 구축하는 방법에 관한 대답은 공식 건물 점화 문서입니다 :
하이브와 JDBC 지원과 구축 그 JDBC 서버 및 CLI와 함께 스파크 SQL에 대한 하이브 통합을 사용하려면 기존 빌드 옵션에 -Phive 및 Phive-thriftserver 프로파일을 추가합니다. 기본 스파크에 의해 하이브 0.13.1 바인딩 구축 할 것입니다.
mvn -Pyarn -Phadoop-2.4 -Dhadoop.version=2.4.0 -Phive -Phive-thriftserver -DskipTests clean package
스칼라 2.11로 컴파일 불꽃 패키지를 생성하려면 -Dscala - 2.11 속성을 사용합니다 :
./dev/change-scala-version.sh 2.11 mvn -Pyarn -Phadoop-2.4 -Dscala-2.11 -DskipTests clean package
마법 모든 문서에 여기에있다.
from https://stackoverflow.com/questions/36397161/spark-support-for-using-windows-function by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 클러스터를 하둡과 "하둡 단지"로 실행하는 실행 항아리 보내기 (0) | 2019.09.18 |
---|---|
[HADOOP] 어떻게 하이브 저장 데이터 (HDFS에서로드)? (0) | 2019.09.18 |
[HADOOP] 특수 문자로 구분 하둡에서 텍스트 소스를 읽는 방법 (0) | 2019.09.18 |
[HADOOP] 실패 오류 : 때 java.io.IOException : 모든 수집가의 초기화 실패 (0) | 2019.09.18 |
[HADOOP] 때문에 HBase를 클라이언트 항아리 = TRUE 관리 하드에 HTable 데이터를 스캔 Bigtable을 연결할 수 없습니다 (0) | 2019.09.18 |