小弟爬虫新手
之前看到网络有人分享爬世界杯的队伍资料的程式码
就抄下来练习...
http://zq.win007.com/big/team/TeamSche/19.html
这是我练习的网页,英超Arsenal的球队赛程
我想练习把这52页的赛程抓下来
我的程式码如下:
# -*- coding: UTF-8 -*-
import selenium
import bs4
import traceback
import time
import csv
from selenium import webdriver
from selenium.common.exceptions import NoSuchElementException
from selenium.webdriver.common import keys
driver=webdriver.Chrome()
driver.get('http://zq.win007.com/big/team/TeamSche/19.html')
target=driver.find_elements_by_xpath('//div[@id="div_Table2"]/table/tbody/tr')
for index in range(60):
...程式码省略...
print(mergegame)
driver.find_elements_by_link_Text('下一页').click()
driver.close()
我点选不到下一页,执行60次的循环时,
会不断重复抓第一页的资讯
如果不能用link_text,有更好的解决方法吗??
第一次发文,不知道描述的问题跟提供的线索足不足够
搜寻旧文找Selenium时也找不到相关线索
还请大家海涵...
感谢解答