一般的な統計情報と検索機能のインターフェイスを提供するサイト\リソースがあります。この検索操作はコストがかかるので、(検索エンジンからではなく)人からの頻繁で連続的な(すなわち自動の)検索要求を制限したい。Grabbing spider protection
私はいくつかのインテリジェンスグラブ保護を実行する既存のテクニックとフレームワークが多いと思うので、私は車輪を再発明する必要はありません。私はmod_wsgiを通してPythonとApacheを使用しています。
私はmod_evasive(これを使用しようとします)を認識していますが、他の手法にも興味があります。
実際、私はYahooのGoogleに苦しんでいませんが、robots.txtを尊敬しない人からは –
ああ、よく変わってきます:)あなたの質問にそれを追加してもいいですか? –
完了。私はそれが十分だったと思った:) –