2016-10-03 4 views
0

私はKafkaからmsgを読み込んで何らかの処理を行うSparkアプリケーションを継続して実行しています。集約された「アプリケーションログ」を取得する方法はありますか?Sparkアプリケーションの実行から集約ログを取得する方法

AFAIK、ログ集計は、SparkContextが破棄された場合にのみ発生します。

+0

YARNで実行していますか?あなたはYARNのログをしたいですか? –

+0

はいArun。ここに私のコマンドはありますか?/ usr/bin/spark-submit - マスター糸 - デプロイモードクライアント - supervise - ドライバメモリ20G - エグゼキュータメモリ20G - ドライバクラスパス=/home/jvadisela /spark/guava-18.0.jar:/home/jay/spark/jackson-core-2.4.5.jar --class com.collective.datarollup.entry.Startup /home/jay/spark/Test-0.0.1- SNAPSHOT-jar-with-dependencies.jar –

+0

はストリーミングアプリケーションですか? –

答えて

0

ログ用に標準のYARNコマンドを試しましたか?

ヤーンログ-applicationId some-id

関連する問題