[HADOOP] spark jdbc에서 술어 사용하기
HADOOPspark jdbc에서 술어 사용하기
SQL Server에서 hdfs로 데이터를 가져오고 있습니다. 여기에 내 발언이있다.
val predicates = Array[String]("int_id < 500000", "int_id >= 500000 && int_id < 1000000")
val jdbcDF = spark.read.format("jdbc")
.option("url", dbUrl)
.option("databaseName", "DatabaseName")
.option("dbtable", table)
.option("user", "***")
.option("password", "***")
.option("predicates", predicates)
.load()
내 Intellij IDE는 다음과 같이 계속 말합니다.
술어에 확실하지 않아 뭐가 잘못 됐어. 아무도 이것과 함께 무엇이 잘못 볼 수 있습니까? 또한 여기에 가져 오기 크기를 어떻게 사용합니까?
감사.
해결법
-
==============================
1.To 옵션 메소드는 부울, Long, Doubles 또는 String 만 허용합니다. 술어를 Array [String]으로 전달하려면 jdbc 메소드를 형식 메소드에서 지정하는 대신 사용해야합니다.
To 옵션 메소드는 부울, Long, Doubles 또는 String 만 허용합니다. 술어를 Array [String]으로 전달하려면 jdbc 메소드를 형식 메소드에서 지정하는 대신 사용해야합니다.
val predicates = Array[String]("int_id < 500000", "int_id >= 500000 && int_id < 1000000") val jdbcDF = spark.read.jdbc( url = dbUrl, table = table, predicates = predicates, connectionProperties = new Properties(???) // user, pass, db, etc. )
여기에서 예제를 볼 수 있습니다.
from https://stackoverflow.com/questions/48677883/using-predicates-in-spark-jdbc-read by cc-by-sa and MIT license
'HADOOP' 카테고리의 다른 글
[HADOOP] 관리자로 실행 중일 때도 Windows 오류 5 (액세스가 거부 됨)에서 Spark 실행 (0) | 2019.07.20 |
---|---|
[HADOOP] Hadoop의 MultipleOutputFormat과 같은 여러 파일에 결과를 쓸 수 있습니까? (0) | 2019.07.20 |
[HADOOP] Hadoop mapReduce HDFS에 값만 저장하는 방법 (0) | 2019.07.20 |
[HADOOP] 외부 hadoop 클러스터 인 Spark에서 H / A namenodes로 구성된 URI로 hdfs에 액세스하는 방법? (0) | 2019.07.20 |
[HADOOP] HDFS에서 테이블을 미리 그룹화하고 제로 셔플 링으로 스파크에서 읽기 (0) | 2019.07.19 |