私は、RやPythonを使用して分析を行うために必要な1.3 GBのtsvデータファイルを持っています。私のマシンには8 GBのRAMがあり、それはWindows 8を実行しています。私はRStudioやファイルを読んでアプリケーションを読み込むことができません。ファイルを読み込んで作業することをお勧めしますか?私はhadoopでAmazonに移動すべきですか?これは私のような大きなデータ問題です。RStudioで大容量ファイルを扱うことができません
-1
A
答えて
0
関連する問題
- 1. キャッシュストリーミング大容量ファイルを扱う
- 2. Android EditTextで大きなファイルを扱うことができません
- 3. C#で大容量のファイルを扱うHttpListener
- 4. GHCは大きなルックアップテーブルを扱うことができません
- 5. MySQLは大量のデータを扱うことができますか?
- 6. どうすれば大容量ファイルをアップロードできますか
- 7. MySQLクエリで変数を扱うことができません
- 8. python - bottle + geventは静的ファイルを扱うことができません
- 9. はgolangの静的なhtmlファイルを扱うことができません
- 10. numpyで扱うことができるデータの量
- 11. 大量のデータを扱う
- 12. JavaScriptで大量の数値を扱う
- 13. 大量のデータを扱うWebSocketとXHR
- 14. 大容量ファイルとハッシュ - パフォーマンスの懸念
- 15. 大きなファイルをアップロードすることはできません
- 16. Androidで大きなXMLファイルを扱う
- 17. cassandra 1.1でキャッシュ容量を設定できません。
- 18. RStudioは起動時にライブラリを見つけることができません
- 19. "最大リクエスト長を超えました"エラー処理は大容量ファイルでしか動作しません
- 20. バッファにファイルの内容をコピーすることができません
- 21. Segfaultが64ビット版のifstreamで大容量ファイルを読むDebian
- 22. リストビューの内容を見ることができません
- 23. Railsアプリは複数のユーザを扱うことができません
- 24. Antlr 3は構文述語を扱うことができません
- 25. PHPの基本:クラス内のスコープを扱うことができません
- 26. CRC-32(c)大容量ファイルでも問題ありませんか? (最大100 MB)
- 27. WCFで大量のメッセージを送信できません
- 28. FileServiceで大容量のファイルがメモリ不足になる
- 29. Wordpress api jsonが大量の投稿を扱っていません
- 30. WebRequestが大容量ファイル(〜1 GB)を正しくダウンロードできない
ファイル全体をメモリに読み込まない(たとえば、行ごとに読み込んで作業していない場合は、うまくいくはずです)。ローカルでmapreduceを行う方法もありますので、Hadoopクラスタが必要なのは、データのサイズが –
であれば完全に不要です。しかし、私がRプログラムを書いているとき、それはファイル全体を処理するつもりです。だから、もし私がトップのkレコードを見ても、それは助けにならないでしょう。ローカルでmapreduceジョブを実行する方法についていくつかの情報を教えてください。 – Zack
また、私はRまたはpythonのどちらかで作業する必要があります。 – Zack