大家好!! 新手卡关再一问!
我想用urllib去urlopen一个网站
可是我有大量的资料要连续读取
for example:
for each_stock in stocks:
req=urllib.urlopen("http://www.example/each_stock")
table = req.find('table',{'class':'board')
可是因为我太频繁读取网站,网站会跳出一个网页写说
"太频繁读取,请稍后再来"(网址是一样的)
这样我就找不到我要的table
所以我想要请问
有没有什么方法可以让我可以过几秒之后再回去读取网页?
我用过time.sleep(10)方式,等10s去读没有用QQ
在urlopen后面加上timeout=20也没有用...因为不是被block的关系吧?
是被转到内容(网址没有变),所以加上timeout没有用....
卡了几天了,恳请帮忙m(_ _)m