爬虫学习(1):urlopen库使用
发布日期:2021-06-29 14:38:35 浏览次数:2 分类:技术文章

本文共 1125 字,大约阅读时间需要 3 分钟。

以爬取CSDN为例子:

第一步:导入请求库
第二步:打开请求网址
第三步:打印源码

import urllib.requestresponse=urllib.request.urlopen("https://www.csdn.net/?spm=1011.2124.3001.5359")print(response.read().decode('utf-8'))

结果大概就是这个样子:

在这里插入图片描述

好的,继续,看看打印的是什么类型的:

import urllib.requestresponse=urllib.request.urlopen("https://www.csdn.net/?spm=1011.2124.3001.5359")# print(response.read().decode('utf-8'))print(type(response))

结果:

在这里插入图片描述
知道这个类型就行了,不废话的去解读

ok,再看看别的,比如(解释都在注释了)

import urllib.requestresponse=urllib.request.urlopen("https://www.csdn.net/?spm=1011.2124.3001.5359")# print(response.read().decode('utf-8'))print(type(response))#打印网页类型print(response.status)#打印返回结果的状态print(response.getheaders())#打印响应头信息

在这里插入图片描述

返回状态是200嘛就代表请求成功了

再来看看timeout使用:设置请求时间最长可以是多久,超过就不请求了

import urllib.requestresponse=urllib.request.urlopen("https://www.csdn.net/?spm=1011.2124.3001.5359",timeout=0.1)# print(response.read().decode('utf-8'))# print(type(response))#打印网页类型# print(response.status)#打印返回结果的状态# print(response.getheaders())#打印响应头信息print(response.read())

为了显示出报错,我就设置了时间为0.1秒,timeout就直接放在打开网页旁边就好了:报错The read operation timed out就是请求超时,0.1秒嘛,肯定超过0.1秒了,就自然报错了

在这里插入图片描述

最基本爬取网页,后续待更新

这是我qq群970353786,非盈利

转载地址:https://chuanchuan.blog.csdn.net/article/details/113100388 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:爬虫学习(2):request库使用
下一篇:python画爱心,署自己名和时间

发表评论

最新留言

初次前来,多多关照!
[***.217.46.12]2024年05月02日 13时02分53秒