爬虫新手请教,程式码结构如下:
import requests
url = 'http://www.abc.de.fg'
res = requests.get(url)
一般来说,res应该会回传一个status code
用来判断server的回应状态
目前写的爬虫,若该网址挂掉 or 不存在,
requests.get(url)
会直接喷一样的 ERROR,造成程式终止
而不会回传一个适当的status code
想问这是bug 还是 本来就这样设计?
还是要自己用try except做错误处理??
谢谢