python-快速使用urllib爬取网页(8-URLError)
发布日期:2021-06-29 12:30:06 浏览次数:2 分类:技术文章

本文共 675 字,大约阅读时间需要 2 分钟。

程序的执行难免遇到异常,发生异常不要紧,关键是要合理处理异常

在Python爬虫中,经常要处理与URL相关的异常

使用URL异常处理-URLError类进行处理
导入urllib.error模块

本节我们主要介绍两个类:URLError + HTTPError

import urllib.requestimport urllib.errortry:    urllib.request.urlopen("http://blog.csdn.net")except urllib.error.URLError as e:    print(e.code)    print(e.reason)

运行上述代码,出现403错误

产生URLError错误的原因:

a、连不上服务器
b、远程URL不存在
c、无网络
d、出发了HTTPError
上面例子就是触犯了HTTPError所导致

403是状态码

我们来总结一下各种状态码的含义

200 OK 一切正常
301 Moved Permanently 重定向到新的URL,永久性
302 Found 重定向到临时的URL,非永久性
304 Not Modified 请求的资源未更新
400 Bad Request 非法请求
401 Unauthorized 请求未经授期
403 Forfidden 禁止访问
404 Not Found 没有找到对应的页面
500 Internal Server Error 服务器内部出现错误
501 Not Implemented 服务器不支持实现请求所需要的功能

转载地址:https://bupt-xbz.blog.csdn.net/article/details/78883867 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:python-快速使用urllib爬取网页(小结)
下一篇:python-快速使用urllib爬取网页(7-DebugLog)

发表评论

最新留言

很好
[***.229.124.182]2024年04月30日 04时34分06秒