私の3ノードクラスタにCDH 5.4.7をインストールしました。 Sparkで最初のジョブを実行した後、アプリケーションの履歴ページを確認しました。それは、私がHDFSをチェックし/user/spark/applicationHistory
がすでにあったことが判明スパークヒストリーサーバーが起動していません
Event log directory: hdfs://****:8020/user/spark/applicationHistory
No completed applications found!
Did you specify the correct logging directory? Please verify your setting of
spark.history.fs.logDirectory and whether you have the permissions to access
it. It is also possible that your application did not run to completion or
did not stop the SparkContext.
次のように書かれていました。しかし、そのディレクトリ内にはエントリがありませんでした。これは、ログが書き込まれていないことを意味します。私は、Clouderaのドキュメントページを検索し、私はスパーク履歴サーバを追加し、それを開始している説明したように、次のリンク
上の記事Managing the Spark History Server
を見つけました。私のユーザー
$ sudo -u hdfs hadoop fs -chown -R spark:spark /user/spark
$ sudo -u hdfs hadoop fs -chmod 1777 /user/spark/applicationHistory
ための次の2つのコマンドを実行し、私は次のコマンドを実行しようとしたときにしかし、それはそうno such file or directory
エラー
$ cp /etc/spark/conf/spark-defaults.conf.template /etc/spark/conf/spark-defaults.conf
を与え、私はパス/etc/spark
に行って、その中のファイルをリストされています。これは、この
conf -> /etc/alternatives/spark-conf
のようなものを示さなかったどちらも、それがすでにあるも、私はまたservice spark-history-server start
コマンドはunrecognized service
エラーを与える/etc/spark/conf
にディレクトリを変更することができますので、私はconf
という名前のディレクトリを作成することができます。
親切に助けてください!事前のおかげで