def get_webpage(url):
    try:
        resp = requests.get(
            url=url
        )
        if resp.status_code != 200:
            print('无法取得此网页 网址为: [' +
resp.url + ']')
            return None
        else:
            return resp.text
    except Exception as e:
        print('开启网页错误! 网页url: [' + url + '], 错误讯息: ' + str(e))
        for i in range(10):
            print('等待10分钟: ' + str(i)))
            sleep(60)
        try:
            resp = requests.get(
                url=url
            )
            if resp.status_code != 200:
                print('*无法取得此网页 网址为: [' + resp.url + ']*')
                return None # 看要不要改别的
            else:
                return resp.text
        except Exception as e:
            print('*!* 连续开启网页二次错误! 网页url:' + url)
            sys.exit()
※ 引述《loser113 (洨大鲁蛇ㄍ)》之铭言:
: 现在遇到爬虫网站会看ip 抓太多会断你连结
: 那我循环中间遇到错误 怎么写暂停一下
: 之后从这轮错误的循环再开始跑 谢谢