2017-10-25 2 views
0

私はRで比較的新しくて貧弱で、問題を引き起こしているようなことをしようとしています。R - 新しいファイルを作成するとあまりにも多くのメモリを消費する

私は1 spatialpolygonsdataframeに結合しようとしているいくつかの大きなspatialpolygonsdataframesを持っています。 7つあり、合計で約5 GBになります。私のMacは8GBのRAMしか持っていません。

集合体spatialpolygonsdataframeを作成しようとすると、Rは実行に非常に時間がかかり、終了する必要があります。私はそれが十分なRAMがないためだと推測します。

私のコードは単純です:集約< -rbind(file1、file2、....)。これを行うにはもっとスマートな方法がありますか?

ありがとうございます。

+0

'fread'でファイルを読み込み、' rbindlist'でそれらをバインドする 'data.table'と考えるかもしれません。 – Pasqui

+0

rbindの実行時にチェックすることでRAMの制約であることを確認できますか? https://support.apple.com/en-gb/HT201538私の経験から、Rは大きなシェープファイルのメモリ管理にはかなり悪いです。 –

答えて

0

大きなデータセットを読み込む主な要素は、RAM容量ではありません(できるだけアップグレードすることをお勧めします)。しかし、むしろ読み書き速度。ハードウェアの場合、7200RPMのHDDはSSDよりもかなり遅くなります。あなたがSSDをインストールしてそれをあなたの作業ディレクトリとして持っていれば、私はそれをお勧めします。

関連する問題