2017-06-25 1 views
0

すべての依存関係について読んで、mongoDBとSparkを統合しようとしています。mongoDBとsparkを統合しようとすると、「クラスが見つかりませんでした。」というエラーが発生しました。

  • JDK 1.8
  • Scalaの-SDK-2.11から7
  • スパークバージョン2.0.2

これは私のbuild.sbtファイルがどのように見えるかです:

scalaVersion := "2.11.7" 
libraryDependencies ++= Seq(
    "org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0", 
    "org.apache.spark" %% "spark-core" % "2.0.0", 
    "org.apache.spark" %% "spark-sql" % "2.0.0" 
) 

私はこの簡単なスクリプトを実行するたび:

import com.mongodb.spark._ 
import org.apache.log4j._ 



object myMain { 
    def main(args: Array[String]): Unit = { 
    println("lol") 
    } 
} 

それは「見つけるか、メインクラスのmyMainをロードできませんでした」と言います。


私が見たいと思っているのは、依存関係が問題なく、スクリプトがライブラリをインポートして動作するかどうかです。助けてください、私はこれについて少なくとも1日は読んできましたが、「互換性の問題」以外の具体的なヒントは見つかりません。

newProject - > SRC - > プロジェクト(SRC-ビルド)、 build.sbt、 myMain $

これはIntelliJの中に私のプロジェクトツリーが外部のライブラリで、どのように見えるかである私は、すべてのLIBSを持っていますbuild.sbtファイルと上記のようなscalaとjavaの依存関係によってダウンロードされます。
ありがとうございました!

答えて

0

答えはIntelliJ ideからEclipseに変更されました。

+0

IDEの設定に問題があるように見えます。あなたの 'myMain'クラスがintellijのプロジェクトビルドパスにない場合にはエラーのように見えます。 – Ross

関連する問題