詳細:---reg:sqlContextのライブラリ依存関係は何ですか?
スパーク環境1.6.1、Scalaバージョン2.10.5(OpenJDK 64ビットサーバVM、Java 1.8.0_77)です。
「ライブラリ処理」オプションを使用して実行可能なjarを「生成されたjarに必要なライブラリを抽出する」として作成しました。 私はstackoverflowのの内と外、いくつかの研究を行なったし、私が行ったの火花提出オプション以下
火花提出--class spark_sqlserver_Conn.jar --master糸
で、スパークENVにjarファイルを実行します解決策を見つけることができますが、彼らは私のために働いていません。
これで、私が設定しようとしている適切な依存関係は何でしょうか?
私はまた、以下のようなエラーを取得しています: - スレッドで "メイン" ます。java.sql.SQLException:いいえ、適切なドライバ
package spark_sqlserver.tblcreation
import java.util.Properties
import java.sql.DriverManager
import java.sql.Connection
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
object SQLServerTbleCreate {
def main (args: Array[String]){
val conf = new SparkConf()
.setAppName("test SQL")
.setMaster("path to Spark Master Server")
.set("spark.executor.memory","1g");
val sc = new SparkContext(conf)
val sqlContext = new org.apache.spark.SQLContext(sc)
var props= new java.util.Properties()
props.setProperty("driver", "com.microsoft.sqlserver.jdbc.SQLServerDriver")
val jdbcDF = sqlContext.read.format("jdbc").options(Map("url" -> "jdbc:sqlserver://xxx:xxxx/xxx?user=xxxxx&password=xxxxx",
"dbtable"-> "xxxx")).load()
val test = sqlContext.sql("SELECT xxxx ,xxxx FROM xxxxx")
test.show(10)
}
}
私の日食は、「Cで構成されます。\ Program Files \ Javaの\ jre1パスを構築する "
よろしく、.8.0_121 \ビン\サーバー\のjvm.dllが」私はを通じてsqljdbc4-2.0.jarバンドルされている
日食MARS2
"Amitesh Sahay
pomファイルを投稿できますか? – FaigB