2016-12-20 10 views
1
from selenium import webdriver 

driver = webdriver.Chrome() 

driver.get("http://www.rezultati.com/utakmica/Q7ckEKB0/#detalji") 

print (driver.current_url) 

私はリンクのリストがあります:Pythonのセレン変更URL

http://www.rezultati.com/utakmica/ll33wwis/#detalji http://www.rezultati.com/utakmica/zLgwjGzm/#detalji

を...

ループを使用して(このすべてのリンクから窮地データの最良の方法は何ですか? )、このプログラムでは? いくつかの例やドキュメントを教えてください。

+0

してください、あなたはBeautifulSoupで見たことがありますか? – jinksPadlock

答えて

0

、コードの下に確認してくださいここで私はテスト(またはデータをフェッチ)することができません

from bs4 import BeautifulSoup 
from selenium import webdriver 


class ReadBooksInfo(object): 
    def __init__(self): 
     self.driver = webdriver.Chrome() 
     # self.driver = webdriver.Firefox() 

    def read_HTML(self, url): 
     self.driver.get(url) 
     html = self.driver.page_source 
     soup = BeautifulSoup(html.text, 'html.parser') 
     print(soup) 
     # check for your expected tag here, 
     rows = soup.find_all('tr') 
     print(rows) 


test = ReadBooksInfo() 

urls = ["http://www.rezultati.com/utakmica/Q7ckEKB0/#detalji", 
     "http://www.rezultati.com/utakmica/ll33wwis/#detalji", 
     "http://www.rezultati.com/utakmica/zLgwjGzm/#detalji"] 
for i, url in enumerate(urls): 
    print(str(i) + "::" + url) 
    test.read_HTML(url) 
0

私はurllib2とBeautifulSoupを使用しました。しかし、セレンなし。 Githubの私のコードを見てください。コードは理想的で完璧ではありませんが、私は必要なデータを破棄しました。 Github repo