chunks

    0

    1答えて

    50行と15列の50個のcsvファイルから2つの列を持つデータフレームを構築しようとしています。 concat関数を使わずに実行しようとすると、メモリが大量に消費され、killエラーが発生します。今私はデータベースをチャンクして、それを連結しています。唯一の問題は、チャンクを連結すると、各チャンクのヘッダーが保持され、dfのhead()を出力すると、最後のチャンクの先頭行が得られます。そして、私の

    2

    1答えて

    私はストレージデータ用にmongodbを実行しています。 MongoDBクラスタには3つのシャードがあり、各シャードには3つのサーバレプリカセット、2つのモンゴスと3つの設定サーバがあります。各サーバーには1TBの記憶容量があります。現在、3つの破片のうち2つに90%の容量のデータがあります。新しいシャードを追加すると、MongoDBは古いシャードから新しいシャードに移動しません。私はmongos

    -3

    1答えて

    Angular4/Angular2でチャンク内でのファイルアップロードをサポートするディレクティブはありますか?

    0

    1答えて

    私は、顧客レコードのエクスポートをいくつかのチャンク500レコードにわたって分割する必要があります。私は私のサーバーに保存し、REST要求を通じて各チャンクをつかむ: public function createImportFile($json) { $filePath = storage_path().'/import/'.$this->getImportFileName($this

    1

    1答えて

    私はYoutube ChannelにPHPでビデオをアップロードしようとしています。これらのビデオはHDと大きなファイルサイズ(約4GB)です。だから私は200メガバイト周りのビデオをアップロードしようとすると何も問題はなく、スクリプトはすべてのチャンク(100以上)をアップロードする しかし、私は実際のビデオ(4GB)をアップロードしようとするとチャンク76の後で停止し、79691776バイトだ

    0

    1答えて

    をチャンクする文字列は2文字 結果でありますbe Li ik ke ここにシーケンスがあります。 お願いします。

    1

    1答えて

    大きなcsvファイルを読んでいますので、chunksizeパンダのイテレータを使用しています。しかし、私はParserErrorを取得するので、私はtryを使用していると思っていました。このエラーが発生した場合、次のチャンクの繰り返しに渡したいと思います。 だから私はそれをテストした: df = pd.read_csv("file.csv",iterator=True) d=True whil

    0

    1答えて

    誰もが幸せな休日です! シンプルなラップトップで大きなcsvファイル(それぞれ約5GB)に対処しなければならないので、特にPython 2.7を使用してチャンク(これは完全なnoobです)でファイルを読むことを学んでいます。 何かはまだ私には非常に明確ではありません。私はこの非常に良い例に # chunked file reading from __future__ import divisio

    0

    1答えて

    buf = "\x31\xc0\x50\x68\x2f\x2f\x73\x68\x68\x2f\x62\x69\x6e\x89\xe3\x50\x53\x89\xe1\xb0\x0b\xcd\x80"; このシェルコード文字列(一例)が与えられているので、私はn番目のサイズの複数のチャンクに分割したいと思います。それが分割されると 、私はそれが自動的に各時間毎のアクションを指定する、および数を

    3

    1答えて

    私はこのことの多くを非常に新しくしているので、まず謝ります。 私はMarkdownで働いています。私はpythonパッケージtweepyを使いたいと思います。 import sys print(sys.version) 私はそれをインポートしようとすると、私は ImportError: No module named tweepy を取得しているので、私に 2.7.10 (default