2017-02-28 7 views
0

アクティブなジョブが1つ失敗したポッドを持つ作業中のkubernetesクラスタ(v1.4.6)があります。仕事は決して完了するべきではありません。Kubernetes:クラスタのアップグレード後に、アクティブなジョブが完了したと誤ってマークされています

  • 私は同じクラスタ(例えばノードを再起動)を再起動した場合、ジョブは正常に再スケジュールされ、私がv1.5.3にクラスタをアップグレードする場合
  • を再起動され続け、そのジョブは次のようにマークされていますクラスタが稼働したら完了します。アップグレードは基本的に再起動と同じです - どちらも同じetcdクラスタを使用します。

これはv1.5.xに移行するときに期待される動作ですか?そうでない場合は、ジョブを実行し続けるために何ができるのですか? 私は自分の問題についてちょっとした背景を述べておかなければなりません。最終的には更新プロセスのドライバーになることです。一定の目標を達成するまでは(クラスターが再起動しても)実行することが重要です。これは仕事を使って可能ですか?

+0

怪しいですね。 github kubeチャンネルに投稿してください。 –

+0

アップグレードの前後に 'kubectl get job -o yaml'の出力を比較して、定義の変更を見つけましたか? –

+0

いいえ、違いはあるかどうかは疑問です。 – deemok

答えて

0

v1.5.0 extensions/v1beta1.Jobsでは、batch/v1.Jobが推奨されていたため、ジョブ定義を更新せずにクラスタをアップグレードするだけで、副作用が発生することが予想されます。

v1.5.0の変更点および廃止予定の一覧については、Kubernetes CHANGELOGを参照してください。

+1

私は 'extensions/v1beta1.Jobs'を使っているとは言いませんでした。これは' batch/v1.Job'にありますが、私は問題がありますが、ポインタに感謝しています。 – deemok

+0

私の悪い点は、バッチ/ v1.Jobがv1.5.0で導入されたと仮定して回答しましたが、v1.3.0で導入されました。 –

関連する問題