2015-10-05 15 views
6

分散型スパーククラスタ(バージョン1.5.0)をセットアップし、spark-perfを実行しようとしました。しかし、私たちはこのエラーを受け取り、それを修正する方法は知らない。spark-perf実行時にSparkUncaughtExceptionHandlerを取得

15/10/05 20:14:37 ERROR SparkUncaughtExceptionHandler: Uncaught exception in thread Thread[appclient-registration-retry-thread,5,main] 
java.util.concurrent.RejectedExecutionException: Task [email protected] rejected from [email protected][Running, pool size = 1, active threads = 1, queued tasks = 0, completed tasks = 0] 
     at java.util.concurrent.ThreadPoolExecutor$AbortPolicy.rejectedExecution(ThreadPoolExecutor.java:2048) 
     at java.util.concurrent.ThreadPoolExecutor.reject(ThreadPoolExecutor.java:821) 
     at java.util.concurrent.ThreadPoolExecutor.execute(ThreadPoolExecutor.java:1372) 
     at java.util.concurrent.AbstractExecutorService.submit(AbstractExecutorService.java:110) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anonfun$tryRegisterAllMasters$1.apply(AppClient.scala:96) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anonfun$tryRegisterAllMasters$1.apply(AppClient.scala:95) 
     at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:244) 
     at scala.collection.TraversableLike$$anonfun$map$1.apply(TraversableLike.scala:244) 
     at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33) 
     at scala.collection.mutable.ArrayOps$ofRef.foreach(ArrayOps.scala:108) 
     at scala.collection.TraversableLike$class.map(TraversableLike.scala:244) 
     at scala.collection.mutable.ArrayOps$ofRef.map(ArrayOps.scala:108) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint.tryRegisterAllMasters(AppClient.scala:95) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint.org$apache$spark$deploy$client$AppClient$ClientEndpoint$$registerWithMaster(AppClient.scala:121) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anon$2$$anonfun$run$1.apply$mcV$sp(AppClient.scala:132) 
     at org.apache.spark.util.Utils$.tryOrExit(Utils.scala:1119) 
     at org.apache.spark.deploy.client.AppClient$ClientEndpoint$$anon$2.run(AppClient.scala:124) 
     at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471) 
     at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:304) 
     at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:178) 
     at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293) 
     at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145) 
     at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615) 
     at java.lang.Thread.run(Thread.java:745) 
15/10/05 20:14:37 INFO DiskBlockManager: Shutdown hook called 
15/10/05 20:14:37 INFO ShutdownHookManager: Shutdown hook called 
15/10/05 20:14:37 INFO ShutdownHookManager: Deleting directory /tmp/spark-c5a4a63b-3dc5-4c52-bd2b-e6df22a0c19f 
+0

私は同様の問題を抱えています。これを解決できましたか? – vyakhir

答えて

0

のconfig/config.pyに変数SPARK_CLUSTER_URLを確認してください。

SPARK_CLUSTER_URL = "spark://Master_Ip:7077" 

PS:Master_IpはホストのIPアドレスではなく、ホスト名です。

0

SparkマスタURLを正しく入力していません。大文字のエラーが原因である可能性があります。ファイルconf/99-user_defined_properties.confhibench.spark.masterへのパスが正しいことを確認するには、このコマンドを使用してください。次のコマンドを実行するには、Spark-shellに接続できる必要があります。スパークのスタンドアロンモードで

MASTER=<YOUR-SPARK-MASTER-URL-HERE> bin/spark-shell 

このURLは次のようになります。

spark://<master-machine-IP>:7077 

一般的には、マスターノードのIPアドレスの代わりのためのスパークマスターによって提供されるアルファベットのホスト名を使用することをお勧めします例:spark://Macs-MacBook-Pro.local:7077

1

spark-submitコマンドでマスターIPをホスト名に置き換えましたが、このエラーは解決しました。

--master "spark://hostname:7077"

関連する問題