2017-03-07 7 views
6

sparkバージョン2.1.0を実行していますが、次の例外が発生します。私は結果を取得していますが、それは数Spark exception with java.lang.ClassNotFoundException:de.unkrig.jdisasm.Disassembler

val rdd = sparkLocal.read.text("/data/logs/file.log") 
println(rdd.count) 

を私は単なるテキストファイルを読んでいる

java.lang.ClassNotFoundException: de.unkrig.jdisasm.Disassembler 
    at java.net.URLClassLoader.findClass(URLClassLoader.java:381) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:424) 
    at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331) 
    at java.lang.ClassLoader.loadClass(ClassLoader.java:357) 
    at java.lang.Class.forName0(Native Method) 
    at java.lang.Class.forName(Class.java:264) 
    at org.codehaus.janino.SimpleCompiler.disassembleToStdout(SimpleCompiler.java:430) 
    at org.codehaus.janino.SimpleCompiler.compileToClassLoader(SimpleCompiler.java:404) 
    at org.codehaus.janino.ClassBodyEvaluator.compileToClass(ClassBodyEvaluator.java:311) 
    at org.codehaus.janino.ClassBodyEvaluator.cook(ClassBodyEvaluator.java:229) 
    at org.codehaus.janino.SimpleCompiler.cook(SimpleCompiler.java:196) 
    at org.codehaus.commons.compiler.Cookable.cook(Cookable.java:91) 
    at org.apache.spark.sql.catalyst.expressions.codegen.CodeGenerator$.org$apache$spark$sql$catalyst$expressions$codegen$CodeGenerator$$doCompile(CodeGenerator.scala:935) 
    at org.apache.spark.sql.catalyst.expressions.codegen.CodeGenerator$$anon$1.load(CodeGenerator.scala:998) 
    at org.apache.spark.sql.catalyst.expressions.codegen.CodeGenerator$$anon$1.load(CodeGenerator.scala:995) 
    at org.spark_project.guava.cache.LocalCache$LoadingValueReference.loadFuture(LocalCache.java:3599) 
    at org.spark_project.guava.cache.LocalCache$Segment.loadSync(LocalCache.java:2379) 
    at org.spark_project.guava.cache.LocalCache$Segment.lockedGetOrLoad(LocalCache.java:2342) 
    at org.spark_project.guava.cache.LocalCache$Segment.get(LocalCache.java:2257) 
    at org.spark_project.guava.cache.LocalCache.get(LocalCache.java:4000) 
    at org.spark_project.guava.cache.LocalCache.getOrLoad(LocalCache.java:4004) 
    at org.spark_project.guava.cache.LocalCache$LocalLoadingCache.get(LocalCache.java:4874) 
    at org.apache.spark.sql.catalyst.expressions.codegen.CodeGenerator$.compile(CodeGenerator.scala:890) 
    at org.apache.spark.sql.execution.WholeStageCodegenExec.doExecute(WholeStageCodegenExec.scala:357) 
    at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$1.apply(SparkPlan.scala:114) 
    at org.apache.spark.sql.execution.SparkPlan$$anonfun$execute$1.apply(SparkPlan.scala:114) 
    at org.apache.spark.sql.execution.SparkPlan$$anonfun$executeQuery$1.apply(SparkPlan.scala:135) 
    at org.apache.spark.rdd.RDDOperationScope$.withScope(RDDOperationScope.scala:151) 
    at org.apache.spark.sql.execution.SparkPlan.executeQuery(SparkPlan.scala:132) 
    at org.apache.spark.sql.execution.SparkPlan.execute(SparkPlan.scala:113) 
    at org.apache.spark.sql.execution.SparkPlan.getByteArrayRdd(SparkPlan.scala:225) 
    at org.apache.spark.sql.execution.SparkPlan.executeCollect(SparkPlan.scala:272) 
    at org.apache.spark.sql.Dataset$$anonfun$org$apache$spark$sql$Dataset$$execute$1$1.apply(Dataset.scala:2371) 
    at org.apache.spark.sql.execution.SQLExecution$.withNewExecutionId(SQLExecution.scala:57) 
    at org.apache.spark.sql.Dataset.withNewExecutionId(Dataset.scala:2765) 
    at org.apache.spark.sql.Dataset.org$apache$spark$sql$Dataset$$execute$1(Dataset.scala:2370) 
    at org.apache.spark.sql.Dataset.org$apache$spark$sql$Dataset$$collect(Dataset.scala:2377) 
    at org.apache.spark.sql.Dataset$$anonfun$count$1.apply(Dataset.scala:2405) 
    at org.apache.spark.sql.Dataset$$anonfun$count$1.apply(Dataset.scala:2404) 
    at org.apache.spark.sql.Dataset.withCallback(Dataset.scala:2778) 
    at org.apache.spark.sql.Dataset.count(Dataset.scala:2404) 

例外をスローし、印刷しています。しかし、私は

これはある結果を得ています私build.sbt

libraryDependencies ++= { 
    val akkaVersion = "2.4.10" 
    val sparkVersion = "2.1.0" 

    Seq(
    "com.typesafe.akka" %% "akka-actor"       % akkaVersion, 
    "org.apache.spark" %% "spark-core"       % sparkVersion, 
    "org.apache.spark" %% "spark-sql"       % sparkVersion, 
    "org.apache.spark" %% "spark-hive"       % sparkVersion, 
    "com.typesafe.akka" %% "akka-slf4j"       % akkaVersion, 
    "org.apache.spark" %% "spark-streaming"      % sparkVersion 
) 
} 

は、誰もが

私を助けてください
+0

あなたはどこかに何かがありません。あなたがしていたことがすべてあなたがこのエラーになることはないでしょう。スパークシェルから走っていますか?ビルドしてスパークを提出しましたか?何があなたのbuild.sbtのように見える...ここに何かが欠けている –

+0

私は質問を変更しました – Muhunthan

答えて

5

同じ問題を持つため

this issue of the Janino compilerによって引き起こされたようです。

change logによれば、この修正は、バージョン01207-23-22でリリースされたバージョン3.0.7(これはすでにon Maven)に含まれている必要があります。

私は私のbuild.sbtに明示的な

libraryDependencies += "org.codehaus.janino" % "janino" % "3.0.7" 

を追加しているし、これまでのところ、問題を解決しているようです。