私は愚かな間違いをしています。私はいくつかのデータをウェブサイトから取り除こうとしていますが、データを解析することはできますが、CSVには書き込まれません。私はPythonの完全な初心者です、私はこれ以上頭を傷つけています。ここでPython/BeautifulSoupで解析した後にCSVに書き込まない
は、これまでの私のコードです:
import requests
import csv
from bs4 import BeautifulSoup
base_url = "http://www.example.com/"
total_pages = 100
def parse_content(r):
soup = BeautifulSoup(r.content,'lxml')
g_data = soup.find_all('ul', {"class": "searchResults"})
for item in g_data:
for li in item.findAll('li'):
for resultnameh2 in li.findAll('h2'):
for resultname in resultnameh2.findAll('a'):
cname = resultname.text
for resultAddress in li.findAll('p', {"class": "resultAddress"}):
caddress = resultAddress.text.replace('Get directions','').strip()
for resultContact in li.findAll('ul', {"class": "resultContact"}):
for resultContact in li.findAll('a', {"class": "resultMainNumber"}):
ccontact = resultContact.text
for page in range(1, total_pages):
response = requests.get(base_url + '/' + str(page))
if response.status_code != 200:
break
parse_content(response)
csvdata = parse_content(response)
with open('index.csv', 'a') as csv_file:
writer = csv.writer(csv_file)
writer.writerow([csvdata])
ありがとう!私は現在CSVにコンテンツを取得していますが、フォーマットは間違っています。すべてのレコードがすべて1つの値になっています。 –
ループ内の各値を印刷して、どの値が来るのかを確認し、リストを印刷して、追加されているかどうかを確認してください。あなたはほとんどそこにいます。 –
ありがとうございました。私はあなたの助けに感謝します:) –