〜10ノードのaws emrクラスタでMap-Reduce-Jobを実行しています。 (emr 4.7.11、m3.xlarge)ディスクがいっぱいになったためにAWS EMRクラスタが失敗する
ジョブが実行されている間、ワーカーノードは約4時間後に1つずつ消滅し始めます。ワーカーノードに
"1/3 local-dirs are bad: /mnt/yarn; 1/1 log-dirs are bad: /var/log/hadoop-yarn/containers"
ディスクノードが失敗したときに使用される96%であった:ログに 私は次のエラーを発見しました。 ノードのディスクが100%になっていて、ディスクにファイルを書き込めないと仮定します。
私は各インスタンスに500GBのEBSボリュームを添付しようとしました。ただし、Hadoopは/mnt
のみを使用し、追加のボリューム(/mnt2
)は使用しません。
/mnt2
を使用するようにAWS EMRクラスターを設定するにはどうすればよいですか? 設定ファイルを使用しようとしましたが、クラスタはブートストラップのエラーOn the master instance (i-id), bootstrap action 6 returned a non-zero
で失敗します。クラスタが起動時に失敗した理由を
[
{
"Classification": "core-site",
"Properties": {
"hadoop.tmp.dir": "/mnt2/var/lib/hadoop/tmp"
}
},
{
"Classification": "mapred-site",
"Properties": {
"mapred.local.dir": "/mnt2/var/lib/hadoop/mapred"
}
}
]
誰でもヒントがあります: 残念ながらS3バケット
設定ファイルのブートストラップアクション6ログがあるのですか? また、m3.xlargeインスタンスの初期EBSボリュームを増やす別の方法がありますか?
https://forums.aws.amazon.com/thread.jspa?threadID=225588 その後、コア/タスクノードが不健康とYARNによって使用不可能とマークされます、同じ問題のように見えますが、ディスクは、(のようには/ mnt /)が90%を超えた場合は解