私は私のscript.py
複数のURL - BeautifulSoupスクレイピング
urls.txt
と同じディレクトリにあるテキストファイルurls.txt
を持つ複数のURLのリストを1行に1つずつ持っています。私は一発ですべてのURLをこすり特にdiv
このdiv
の内容を引き出すしようとしています
は、各URLここ
に複数回発生することは私のスクリプトです
import requests
from bs4 import BeautifulSoup
from urllib import urlopen
with open('urls.txt') as inf:
urls = (line.strip() for line in inf)
for url in urls:
site = urlopen(url)
soup = BeautifulSoup(site, "lxml")
for item in soup.find_all("div", {"class": "vm-product-descr-container-1"}):
print item.text
urls.txt
のすべてのURLからコンテンツを返す代わりに、スクリプトはリスト内の最後のURLのコンテンツのみを返します。
私のスクリプトはエラーを返さないため、どこが間違っているのかわかりません。
ありがとうございます。
@danideeあなたは自分のコードからエラーを編集したばかりです^^ –
@RobBenz、あなたの受け入れられた答えは実際にあなたの質問に答えてくれます。 –