[问题] 爬虫问题,关于网址不存在

楼主: wallrose (墙玫瑰)   2018-10-22 15:44:17
爬虫新手请教,程式码结构如下:
import requests
url = 'http://www.abc.de.fg'
res = requests.get(url)
一般来说,res应该会回传一个status code
用来判断server的回应状态
目前写的爬虫,若该网址挂掉 or 不存在,
requests.get(url)
会直接喷一样的 ERROR,造成程式终止
而不会回传一个适当的status code
想问这是bug 还是 本来就这样设计?
还是要自己用try except做错误处理??
谢谢
作者: nini200 (200妮妮)   2018-10-23 06:10:00
网络相关的一般都会加 try except
作者: zo6596001 (超帅肥宅)   2018-10-22 22:15:00
try except
作者: XperiaZ6C (真●安卓轻旗舰)   2018-10-23 02:19:00
没东西要怎么回传,用try-except吧
作者: lajji (喇机)   2018-10-22 21:12:00
try except
作者: newton2009 (好瘦唷QQ)   2018-10-22 17:48:00
Time out ?
作者: AndCycle (AndCycle)   2018-10-22 17:08:00
网址不存在就没有server,没有server你哪来 status code?http status code 是对面 server 给的, 连不到就没有

Links booklink

Contact Us: admin [ a t ] ucptt.com