すべての依存関係について読んで、mongoDBとSparkを統合しようとしています。mongoDBとsparkを統合しようとすると、「クラスが見つかりませんでした。」というエラーが発生しました。
- JDK 1.8
- Scalaの-SDK-2.11から7
- スパークバージョン2.0.2
これは私のbuild.sbtファイルがどのように見えるかです:
scalaVersion := "2.11.7"
libraryDependencies ++= Seq(
"org.mongodb.spark" %% "mongo-spark-connector" % "2.0.0",
"org.apache.spark" %% "spark-core" % "2.0.0",
"org.apache.spark" %% "spark-sql" % "2.0.0"
)
私はこの簡単なスクリプトを実行するたび:
import com.mongodb.spark._
import org.apache.log4j._
object myMain {
def main(args: Array[String]): Unit = {
println("lol")
}
}
それは「見つけるか、メインクラスのmyMainをロードできませんでした」と言います。
私が見たいと思っているのは、依存関係が問題なく、スクリプトがライブラリをインポートして動作するかどうかです。助けてください、私はこれについて少なくとも1日は読んできましたが、「互換性の問題」以外の具体的なヒントは見つかりません。
newProject - > SRC - > プロジェクト(SRC-ビルド)、 build.sbt、 myMain $
これはIntelliJの中に私のプロジェクトツリーが外部のライブラリで、どのように見えるかである私は、すべてのLIBSを持っていますbuild.sbtファイルと上記のようなscalaとjavaの依存関係によってダウンロードされます。
ありがとうございました!
IDEの設定に問題があるように見えます。あなたの 'myMain'クラスがintellijのプロジェクトビルドパスにない場合にはエラーのように見えます。 – Ross