2012-02-08 14 views
1

私は必要な速度でHTTP経由で多数のファイルをサーバからダウンロードするのに少し問題がありました。このような状況では、私は画像を取得する必要があります。最大250のグループから最大36の画像(通常はそれ以下)です。私はget_file_contentsとcopy()の両方を試してみましたが、どちらも動作していますが、遅くなっています.20グループの1回の実行で分が分かり、すべてが完了したら200個のグループに対して200個のグループを実行する必要があります、最大36画像PHPを使用してリモートサーバから複数の画像をダウンロードする最も良い方法

PHPを使用して多数の画像を高速にダウンロードする方法はありますか?

+2

これはPHPの問題ですか、それとも帯域幅の問題ですか? –

+0

どのようなスループットが得られていますか?リモートサーバーが個々の接続を抑制していると思われる場合は、いくつかのダウンロードを開始することで合計時間が短縮される場合があります。リモートサーバーはあなたのコントロール下にありますか? – halfer

+0

[Curl 2.5k +ファイルのダウンロードが遅すぎる](http://stackoverflow.com/questions/3848048/curl-download-of-2-5k-files-too-slow) - これはあなたのあなたの問題にいくつかの光を当てました。並行して複数のファイルのダウンロードを処理するダウンロードクライアントPHPクラスを探します。それらのうちのいくつかは 'curl'拡張に基づいて存在します。 – hakre

答えて

1

* nixサーバーを使用している場合は、get_file_contents/copyを呼び出す代わりにwgetを呼び出してみてください。画像をダウンロードするより効率的な方法だと思います。

コメントに記載されているように、サーバーまたはリモートサーバーの帯域幅の問題でもあります。これらはstackoverflowの範囲外であり、より良い投稿になりますserverfault

関連する問題