2016-07-22 11 views
1

Wordpressに(Media Uploader経由で)アップロードされた複数のPDFファイルがありますが、これはGoogleによってインデックスに登録されるべきではありません。私が見つけることができる唯一の解決策は、robots.txtにファイル名を追加して、ロボットがこれらのファイルをクロールすることを拒否することでした。Wordpressでpdfファイルをrobots.txtに追加

問題は、この方法では、私のrobots.txtファイルを絶えず更新する必要があるということです。より多くの人々がこのプロジェクト(この場合は編集者)で作業を開始すれば良い解決法ではありません。おそらくrobots.txtファイルを更新することはできません。

私のrobots.txtにPDFファイルをdinamically追加する方法はありますか?たぶん、それが本当であれば、ファイルが追加されるカスタムフィールドですか?

重要な詳細:Media Uploader経由でアップロードされたPDFには、インデックスを作成する必要があります。しかし、いくつかはすべきではない。そのため、すべてのPDFファイルをフィルタリングするルールを追加できません。

+0

いくつかのPDFをクロールしますか?除外できるディレクトリにそれらを保存しますか? – blur0224

+0

ファイルは他のホストされているファイルとまったく同じです。ファイルを編集するためのスクリプトや何かを書くこともできますが、それは複雑でおそらく価値がないようです。たぶんルールで除外できるようにPDFを保管していますか?別のディレクトリまたは命名規則のどちらか? – blur0224

答えて

0

documentationによれば、ディレクトリまたはファイルタイプまたはその両方で除外できます。クロールする必要がない限り、使用することができますDisallow: /*.pdf

関連する問題