[SCALA] 스파크 : 불꽃 쉘에서 스파크 파일을 실행하는 방법
SCALA스파크 : 불꽃 쉘에서 스파크 파일을 실행하는 방법
나는 CDH 5.2을 사용하고 있습니다. 나는 명령을 실행 스파크 쉘을 사용 할 수 있어요.
미리 감사드립니다
해결법
-
==============================
1.에서 외부 파일을로드하려면 간단하게 할 불꽃을-쉘
에서 외부 파일을로드하려면 간단하게 할 불꽃을-쉘
:load PATH_TO_FILE
이 파일의 모든 내용을 호출합니다.
미안하지만 당신의 SBT 질문에 대한 해결책이없는 :-)
-
==============================
2.명령 줄에서 사용할 수 있습니다
명령 줄에서 사용할 수 있습니다
spark-shell -i file.scala
file.scala로 작성된 코드를 실행하는
-
==============================
3.당신도 SBT를 사용하거나 컴파일 스파크 프로그램을 받는다는 할 수 있습니다. 간단히 받는다는에 대한 종속성으로 스파크를 추가
당신도 SBT를 사용하거나 컴파일 스파크 프로그램을 받는다는 할 수 있습니다. 간단히 받는다는에 대한 종속성으로 스파크를 추가
<repository> <id>Spark repository</id> <url>http://www.sparkjava.com/nexus/content/repositories/spark/</url> </repository>
그리고 종속성 :
<dependency> <groupId>spark</groupId> <artifactId>spark</artifactId> <version>1.2.0</version> </dependency>
스파크 명령 파일을 실행의 측면에서 : 당신은 단순히이 작업을 수행 할 수 있습니다
echo" import org.apache.spark.sql.* ssc = new SQLContext(sc) ssc.sql("select * from mytable").collect " > spark.input
이제 명령 스크립트를 실행합니다 :
cat spark.input | spark-shell
-
==============================
4.그냥 답변에 더 관점을 제공합니다
그냥 답변에 더 관점을 제공합니다
스파크 - 쉘은 스칼라 REPL입니다
당신은 입력 할 수 있습니다 도움을 스칼라 쉘 내부에 가능 작업의 목록을 볼 수
scala> :help All commands can be abbreviated, e.g., :he instead of :help. :edit <id>|<line> edit history :help [command] print this summary or command-specific help :history [num] show the history (optional num is commands to show) :h? <string> search the history :imports [name name ...] show import history, identifying sources of names :implicits [-v] show the implicits in scope :javap <path|class> disassemble a file or class name :line <id>|<line> place line(s) at the end of history :load <path> interpret lines in a file :paste [-raw] [path] enter paste mode or paste a file :power enable power user mode :quit exit the interpreter :replay [options] reset the repl and replay all previous commands :require <path> add a jar to the classpath :reset [options] reset the repl to its initial state, forgetting all session entries :save <path> save replayable session to a file :sh <command line> run a shell command (result is implicitly => List[String]) :settings <options> update compiler options, if possible; see reset :silent disable/enable automatic printing of results :type [-v] <expr> display the type of an expression without evaluating it :kind [-v] <expr> display the kind of expression's type :warnings show the suppressed warnings from the most recent line which had any
: 부하가 파일에 줄을 해석
from https://stackoverflow.com/questions/27717379/spark-how-to-run-spark-file-from-spark-shell by cc-by-sa and MIT license
'SCALA' 카테고리의 다른 글
[SCALA] 어떻게 스칼라의 하위 디렉토리에있는 모든 파일을 나열 하는가? (0) | 2019.11.11 |
---|---|
[SCALA] `def` 스칼라에서 게으른 val` 평가`대 val``대 (0) | 2019.11.11 |
[SCALA] 스칼라 : 하나의 문에서 파일에 쓰기 문자열 (0) | 2019.11.10 |
[SCALA] 왜 스칼라 목록 당 모두 여러 매개 변수 목록과 여러 매개 변수를 제공합니까? [복제] (0) | 2019.11.10 |
[SCALA] 스칼라에서 널 / 아무것도 / 장치의 용도 (0) | 2019.11.10 |