Python Scrapy moduleを使用して、私のウェブサイトからすべてのURLを削り取り、そのリストをファイルに書きたいとします。私は例を見ましたが、これを行うための簡単な例は見ませんでした。Python Scrapyモジュールを使用して、私のウェブサイトのすべてのURLを一覧表示するにはどうすればよいですか?
from scrapy.selector import HtmlXPathSelector
from scrapy.spider import BaseSpider
from scrapy.http import Request
DOMAIN = 'example.com'
URL = 'http://%s' % DOMAIN
class MySpider(BaseSpider):
name = DOMAIN
allowed_domains = [DOMAIN]
start_urls = [
URL
]
def parse(self, response):
hxs = HtmlXPathSelector(response)
for url in hxs.select('//a/@href').extract():
if not (url.startswith('http://') or url.startswith('https://')):
url= URL + url
print url
yield Request(url, callback=self.parse)
保存このspider.py
と呼ばれるファイル内:
を使用することになりStackOverflowのはあなたのためにあなたのコードを書くために人々を依頼するサイトではありません - * *何かをしようとし、次いで、約質問を来りますあなたが走っている特定の問題。 – Amber
チュートリアルを試しましたか?それはかなり自明です。チュートリアルをしても試しても問題が残っている場合は、最初に試したコード(+1 @Amber) – inspectorG4dget
アンバーとinspectorG4dgetを投稿してください。これを行うプログラムを作成しましたが、まだ投稿できません私は十分な評判がないので、待ち時間があります。私は明日の朝に解決策を投稿します。 –