最新下载
热门教程
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
Scrapy配置动态代理IP如何实现 Scrapy配置动态代理IP实现代码
时间:2020-09-28 编辑:袖梨 来源:一聚教程网
Scrapy配置动态代理IP如何实现?本篇文章小编给大家分享一下Scrapy配置动态代理IP实现代码,文章代码介绍的很详细,小编觉得挺不错的,现在分享给大家供大家参考,有需要的小伙伴们可以来看看。
应用 Scrapy框架 ,配置动态IP处理反爬。
# settings 配置中间件 DOWNLOADER_MIDDLEWARES = { 'text.middlewares.TextDownloaderMiddleware': 543, # 'text.middlewares.RandomUserAgentMiddleware': 544, # 'text.middlewares.CheckUserAgentMiddleware': 545, 'text.middlewares.ProxyMiddleware': 546, 'text.middlewares.CheckProxyMiddleware': 547 } # settings 配置可用动态IP PROXIES = [ "http://101.231.104.82:80", "http://39.137.69.6:8080", "http://39.137.69.10:8080", "http://39.137.69.7:80", "http://39.137.77.66:8080", "http://117.191.11.102:80", "http://117.191.11.113:8080", "http://117.191.11.113:80", "http://120.210.219.103:8080", "http://120.210.219.104:80", "http://120.210.219.102:80", "http://119.41.236.180:8010", "http://117.191.11.80:8080" ]
# middlewares 配置中间件 import random class ProxyMiddleware(object): def process_request(self, request, spider): ip = random.choice(spider.settings.get('PROXIES')) print('测试IP:', ip) request.meta['proxy'] = ip class CheckProxyMiddleware(object): def process_response(self, request, response, spider): print('代理IP:', request.meta['proxy']) return response
相关文章
- Golang ProtoBuf的基本语法详解 10-20
- Python识别MySQL中的冗余索引解析 10-20
- Python+Pygame绘制小球代码展示 10-18
- Python中的数据精度问题介绍 10-18
- Python随机值生成的常用方法介绍 10-18
- python3解压缩.gz文件分析 09-27