h5py

    1

    1答えて

    を使用してメモリに全部をロードすることなく、大容量のファイルから読み取り、次がメモリに全体の事を一度をロードせずにデータセットから読まん[全部がメモリに収まらない]とサイズを取得h5pyを使用してデータをロードすることなく、データセットのそうでない場合、どうですか? h5 = h5py.File('myfile.h5', 'r') mydata = h5.get('matirx') # are

    0

    1答えて

    私は非常に大きなマトリックスを持っています。これは、それぞれ約350x250の解像度のフレームの配列としてのビデオファイルです。私は約1〜1.5GBのサイズの1つのビデオファイルに約8,000〜10,000のフレームを持っています。 私は、HDF5がファイルの数学的操作を(深さの列全体で)多く実行する必要があるため、私の使用に適したファイル形式であると考えました。 私の問題は、この3Dマトリックス

    0

    2答えて

    私はhdfファイルのコレクションをnumpyの配列に設定する方法を探していますが、各行はイメージのフラット化されたバージョンです。私が正確に意味するもの: 私のHDFファイルには、他の情報の他に、フレームごとの画像が格納されています。各ファイルには、512x424の画像で51フレームが保持されます。今私は300以上のhdfファイルを持っていて、画像ピクセルを1フレームあたり1つの単一ベクトルとして

    0

    2答えて

    誰かがdatalabにh5pyをインストールする方法を知っていますか? pip install h5pyが動作しません。 apt-get install python-h5pyはシェルで動作していますが、datalabノートブックのパッケージを認識しません!すべてのノートブックのセルに!pip install h5py: Thnaks

    0

    1答えて

    python package indexには、ホイールがGohlke's websiteと同じように、Python 2.4〜2.7のバージョンしかありません。ホイールからcythonをインストールした後、 pip install h5py するとエラーを与える: "のMicrosoft Visual C++ 14.0が必要です。" Microsoft Visual C++ 14.0なしでPytho

    0

    2答えて

    私は電気生理学的記録からhdf5ファイルのデータセットを私の理解から実際に近くにあるものの形式で持っています。最も効率的で速い方法です。 私に説明しましょう:データセットは配列のリストです(2D配列?)。各アレイにはx個のチャンネル(録画サイト)が含まれ、通常は約32〜64です。 問題は次のとおりです。数百万の配列があり、個々の配列を永遠にループしています。さらに、値を取得するために、各配列の各チ

    0

    1答えて

    condaにいくつかのパッケージに関する設計上の問題があります。私は私がどこを取得するには、以下の手順を行っている: (特定のコンパイラフラグを有効にする)HDF5のビルドカスタムバージョン h5pyのビルドカスタムバージョンを(変更はHDF5のカスタムバージョンが異なるAPIを呼び出すと。これは、HDF5の私のカスタムバージョンを使用して適切に構築することができ だから私の質問は次のとおりです。

    2

    1答えて

    0,1,2,4の整数を含む非常に大きなデータファイル(1000×1400000の配列)があります。この大きなデータをh5pyを使用してnumpy配列にロードするのに非常に時間がかかります。それほど保留することはできず、プログラムはスワップ領域を使用します。データには4つの数字しかないので、私は8ビットの整数配列を使いたいと思う。現在私はデータをロードし、それを8ビットint配列に変換します。 wi

    0

    1答えて

    私はこの質問に対する答えを見つけることができなかったのに驚いています。私は浮動小数点値をhdf5データセットに書いています。精度を10小数点に設定したいと思います。 hdf5データセットのdocumentationから、精度を設定する方法はありません。私が得た最も近いものは 'float32'か 'float64'ですが、 'float32'は私の数を減らしています。ファイルサイズは私の大きな懸念

    0

    1答えて

    私はh5pyでPythonを使用して可変長の文字列を書きたいと思います。私は dset = grp.create_dataset('data_set_name',{1},dtype=h5py.special_dtype(vlen=str)) dset[0] = 'some_string' を使用する場合は、h5dumpは、UTF-8文字エンコーディングが使用されていることを DATASET