large-data-volumes

    -1

    1答えて

    私はこのタスクをjavaでコーディングする必要があります。 私は、それぞれが5GBの2つの大きなファイルを持っていて、複数の行のテキストデータを含んでいます。各行は、カンマで区切られたフィールドの行です(例: "name、empId、designation、address、...、最大30フィールドまで")。これらの2つのファイルを読んで、別のファイルにレコードを書き込む必要があります。このフィー

    0

    1答えて

    私は200万の行を持つMysqlテーブルを持っています。 サイズは600Mbです。 このクエリには2秒かかります。 私はそれをスピードアップする方法を知らない。テーブルは既にMyisam形式です。 私は選択カウントの遅さの限界に達したかどうかわかりません。 SELECT COUNT(video) FROM yvideos use index (PRIMARY) WHERE rate>='70' A

    1

    1答えて

    私はScalaでプレーフレームワーク2を使用しています。コントローラからは、何らかの他のデータで100000行を含むオブジェクトを返す必要があるアクションメソッドがあります。 JSONシリアライズ時に例外が発生するのは、 org.json4s.native.Serialization.write(Serialization.scala:37) です。このデータ量は処理できないようです。サイズをどこ

    0

    1答えて

    私たちは、1か月あたり10 000 000セッション(ヒットではありません)以上のリソースを有しています。すぐにクライアントに連絡してユニバーサルアナリティクスで有料アカウントを使用するよう依頼することは可能ですか(またはデータ量を減らすために)?

    -1

    1答えて

    にNVIDIAのCUDAドライバのインストールエラー(サポートされていない)が見つかりませんが、私は次のエラーを取得: The driver installation is unable to locate the kernel source. Please make sure that the kernel source packages are installed and set up cor

    0

    1答えて

    私はDockerに対する相対的な初心者ですので、答えが明らかであれば私にご負担ください。 私はホストの共有データディレクトリにアクセスしようとしています。これは特定のグループ権限を持ち、対象ユーザーのグループに対して読み取り専用です。 すでにdocker run -it -v /data:/data ubuntu /bin/bashを試しましたが、その結果のエラーはdocker: Error re

    0

    1答えて

    私は今wxpythonでGUIをコーディングしており、その機能の1つはテキストコントロールです。このテキストコントロールには、しばしばそれに挿入されるさまざまな長さの数千の数十がかかります。データがいっぱいになると、長い時間がかかります(おそらく30秒以上)。 ちょうど、テキストコントロールにデータを埋め込む方法があります。これでデータコントロールをより速くすることができますか?ありがとう。

    1

    1答えて

    私はあなたが私を助けてくれることを願っています。私は、次の構造を有するMATLABでの大きなデータセット(200000×5セル)インポートした :列2~4は、文字列を含むながら 'Year' 'Country' 'X' 'Y' 'Value' 列1および5は、数値を含みます。 私は、次のような構造だろう変数にこのすべての情報を整理したいと思います:私は考えることができるすべての名前の間の一致を見つ

    1

    1答えて

    一時ディレクトリに7300 * .csvファイルがあります。私はRのzipアーカイブにこれらを圧縮したいと思っています。次のコードを使用していますが、これはFOREVERを使用しています。 Rを終了してWinZipプログラムを使用するのが短く、これを行う方法がありますか? fileListing = list.files(pattern = '*.csv') outZipFileName =

    3

    2答えて

    拡張子が.recのファイルに大量のデータ(項目/行)が格納されています。ピンチズームとドラッグをサポートする折れ線グラフの頂点。私はCoreGraphicsで線グラフを描くことができます。しかし、大量の頂点ではうまく機能しません。大量のデータの場合、グラフを描くには3分以上かかります。私はすぐに少なくとも80,000アイテム(頂点)を描画する必要があります。私の現在のソリューションは500アイテム