私がモデルを作成しました:はIllegalArgumentException、間違ったFSスパークからS3にMLモデルを書き込み(スカラ)
val model = pipeline.fit(commentLower)
と私はS3にそれを書き込もうとしています:
sc.hadoopConfiguration.set("fs.s3.impl", "org.apache.hadoop.fs.s3native.NativeS3FileSystem")
sc.hadoopConfiguration.set("fs.s3.awsAccessKeyId", "MYACCESSKEY")
sc.hadoopConfiguration.set("fs.s3.awsSecretAccessKey", "MYSECRETKEY")
model.write.overwrite().save("s3n://sparkstore/model")
をしかし、私はこのエラーを取得しています:
Name: java.lang.IllegalArgumentException
Message: Wrong FS: s3n://sparkstore/model, expected: file:///
StackTrace: org.apache.hadoop.fs.FileSystem.checkPath(FileSystem.java:645)
org.apache.hadoop.fs.RawLocalFileSystem.pathToFile(RawLocalFileSystem.java:80)
org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:529)
org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:747)
org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:524)
org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:409)
org.apache.hadoop.fs.FileSystem.exists(FileSystem.java:1400)
org.apache.spark.ml.util.MLWriter.save(ReadWrite.scala:80)
私はまた私のアクセスキーをインラインで試してみました:
model.write.overwrite().save("s3n://MYACCESSKEY:[email protected]/sparkstore/model")
どのようにモデル(またはそれに関するファイル)をSparkからs3に書き込むことができますか?
感謝入力のために!私はデータフレームを保存するのに問題はありません。この問題は、PipelineModelsに固有です。私は他の場所で見つけた答えを加えています。 –