clouderaでhdfsメモリを50GBから200GBに拡張する必要があります。 私は300 GBのフリースパージでvmを使用していますが、hdfsはhdfsで50 GBを使用するようにのみ設定されています。ClouderaでのHDFSメモリの拡張
[[email protected] conf.cloudera.hdfs] hdfs dfsadmin -report
Configured Capacity: 55531445863 (51.72 GB)
Present Capacity: 6482358272 (6.04 GB)
DFS Remaining: 3668803584 (3.42 GB)
DFS Used: 2813554688 (2.62 GB)
DFS Used%: 43.40%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
私は何をすべき: 私dfs.namenode.name.dirは-reportをdfsadmingデフォルトのDFS/NN
<name>dfs.namenode.name.dir</name>
<value>file:///dfs/nn</value>
そして、私のHDFSに指摘されたが、私与えますか? Redhatのフォルダ容量の上限はありますか(たとえば、作成されるフォルダごとに50GBと言います)? dfs.namenode.name.dirに新しいフォルダを追加する必要があり、各フォルダはhdfsの使用量に50GBを追加しますか?以下のリソースから
Sry私は既に3になっていたdfs.datanode.du.reservedを変更しました。今は1 GBです。 hdfsには53が表示されますが、まだ200GBに拡張する場所は見つかりません。 '[ルート@ localhostのconf.cloudera.hdfs]#HDFS dfsadmin -report 構成済み容量:57591996416(53.64ギガバイト) 現在の容量:6875172864(6.40ギガバイト) DFSが残り:中古4062359552(3.78ギガバイト) DFS:2812813312(2.62 GB) DFS使用される%:破損したレプリカと0 ブロック::0 失われたブロック:0 ' – Mensch
が、私はそれを試してみた –
と効果なし...回答に更新を参照してください40.91パーセント、複製ブロックの下 。それは55GBに設定を変更した後、ちょうど53GBと、さらに厳しい選択をしているということを続けています。 – Mensch