MapRduce Jobを使用してAvroParquet形式のファイルを書き込むSparkストリーミングプログラムを実行しています。プログラムはクラスタで実行されたときに正常に動作しますが、ローカルでは失敗します。mapreduce Job()が 'java.lang.IllegalStateException'例外をスローしました。 org.apache.hadoop.mapreduce.Job.toString()を評価できません
コード
import org.apache.hadoop.mapreduce.Job
val job = Job.getInstance()
は、次の例外がスローされます。ここでは
Method threw 'java.lang.IllegalStateException' exception. Cannot evaluate org.apache.hadoop.mapreduce.Job.toString()
ジョブをストリーミング火花を提出するために使用するコードです:
SparkConf conf = new SparkConf(false)
.setMaster("local[2]")
.setAppName("test");
SparkContext sc = new SparkContext(conf);
MyClass job = new MyClass();
job.run();
class MyClass(){
protected def run(): Unit ={
val ssc: StreamingContext = createStreamingContext(parameters)
// here there is something like
// stream.map(func1).reduceBykey(func2).foreachRDD(rdd => {val job = Job.getInstance()})
ssc.start()
}
spark-submitでローカルにジョブを送信していますか? –
いいえ、私はそれを説明するための質問を編集しました。 – nicola