Spark 2.0とSpark 1.6.1をクラスタモードで単一のクラスタ上で実行して、リソースを共有できるようにしたいのですが、これを行うベストプラクティスは何ですか?これは、1.6.1やその他のSpark 2.0に依存するコードの変更から特定の一連のアプリケーションを保護できるようにするためです。2つのバージョンのApache Sparkをクラスタモードで実行する
基本的に、クラスタはSpark 2.0の動的割り当てに依存する可能性がありますが、1.6.1ではそうでない可能性があります。これは柔軟性があります。
リソースマネージャあなたはスパを利用していますrk独自のスタンドアロンスケジューラ? –
私は何も使用していませんが、私はmesosを使用することにオープンしています... –