私はSPSSにエクスポートしたいRのかなり大きなデータフレームを持っています。 このファイルは、まず頭にRにインポートしようと数時間の頭痛を引き起こしましたが、read.fwf()
オプションを使用して成功しました。comment.char="%"
(文字はファイルには表示されません)とfill= TRUE
(固定長のASCIIファイル一部の行にすべての変数が不足しているため、エラーメッセージが表示されます)。大きな(3.9ミルobs)data.framesをテキストファイルにエクスポートする最も効率的な方法は?
とにかく私のデータフレームは、現在3,9の観測データと48の変数(すべての文字)で構成されています。 df2 <- df[1:1000000,]
とそれに続くwrite.table(df2)
などで4x1ミルobsのセットに分割することでファイルをかなり素早く書き込むことができますが、コンピュータをロックして戻ってくるためにハードリセットを必要とせずにファイル全体を一掃することはできませんアップ。
何年にもわたって大規模なデータセットにRが適していないという事例を聞いた後、私はこの種の問題に実際に遭遇したのは初めてです。私は他のアプローチがあるのだろうか(低レベルの "ダンプ"ファイルを直接ディスクに書き込んでいますか?)、またはこのタイプの大きなファイルのエクスポートを効率的に処理できる何か不明なパッケージがあるかどうかは疑問です。
こんにちはリッチー、私は8 Gb RAMがこのデータセットであっても "RAM上で短く"なるかどうかは分かりません。しかし、私はJD Longが提案した 'sqldf()'を使って分析します。ポインタありがとう! – jans