爬虫单个ip代理设置_爬虫使用代理IP的几种方案
发布日期:2021-06-24 13:09:09 浏览次数:2 分类:技术文章

本文共 870 字,大约阅读时间需要 2 分钟。

如果不用代理ip,爬虫业务必定无路可行,因此大部分爬虫工作者都会使用安全稳定的代理ip。使用了高质量的代理ip后,会不会就能够无后顾之忧了呢?这个可不会这么容易,还要改进方案,有效分配资源,提升工作效率。

方案一:每个进程从接口中随机取一个IP列表来反复使用,失效后再调用API获取,大致逻辑是这样:

1、每个进程,从接口随机取回部分ip回来,反复试着ip目录去抓取数据;

2、要是访问成功,则继续抓取下一条。

3、要是失败了,再从接口取一批IP,继续尝试。

方案缺点:每个IP都是有期限的,要是提取了一百个,用到第二十个时,或许剩下的大多数都无法使用了。要是设置HTTP请求时连接时间超时是3秒,读取时间超时是5秒,那么或许会耗费3-8秒的时间,在这3-8秒内可能抓取了几百次了。

15df4721279dff1a437802d5a0cf09d0.png

方案二:每个进程从接口中随机取一个IP来使用,失败则再调用API获取一个IP,大致逻辑如下:

1、每个进程,从接口随机取回一个ip来,用这个ip来浏览资源,

2、要是访问成功,则继续抓下一条。

3、要是失败了,再从接口随机取一个IP,继续尝试。

方案缺点:调用API获取IP的行为非常频繁,会对代理服务器造成特别大的压力,影响API接口稳定,可能会被限制提取。这类方案也不适合,无法持久稳定的运行。

方案三:先提取大量IP导入本地数据库,从数据库里面取IP,大致逻辑如下:

1、在数据库里面建一个表,写一个导入脚本,每分钟请求多少次API(咨询代理IP服务商建议),把IP列表导入到数据库里面。

2、在数据库里面记录好 导入时间、IP、Port、过期时间、IP可用状态 等字段;

3、写一个抓取脚本,抓取脚本从数据库里面读取可用IP,每个进程从数据库获取一个IP进行使用。

4、执行抓取,对结果进行判断,处理cookie等,只要出现验证码或者失败就放弃这个IP,重新换一个IP。

这种方案有效的避开了代理服务器资源的消耗,有效的分配代理IP的使用,更加的高效和稳定,保障了爬虫工作的持久性和稳定性。ipidea全球http使用稳定可靠,大家可以感受体验下。

转载地址:https://blog.csdn.net/weixin_33001305/article/details/112228423 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:recovery升级是显示进度条_nova8系列来袭,升级EMUI 11体验同款功能
下一篇:python 两个列表相互映射_Python中的lambda函数

发表评论

最新留言

哈哈,博客排版真的漂亮呢~
[***.90.31.176]2024年04月09日 04时14分14秒