Python基于scrapy采集数据时使用代理服务器的方法

Ester ·
更新时间:2024-11-13
· 674 次阅读

本文实例讲述了Python基于scrapy采集数据时使用代理服务器的方法。分享给大家供大家参考。具体如下:

# To authenticate the proxy, #you must set the Proxy-Authorization header. #You *cannot* use the form http://user:pass@proxy:port #in request.meta['proxy'] import base64 proxy_ip_port = "123.456.789.10:8888" proxy_user_pass = "awesome:dude" request = Request(url, callback=self.parse) # Set the location of the proxy request.meta['proxy'] = "http://%s" % proxy_ip_port # setup basic authentication for the proxy encoded_user_pass=base64.encodestring(proxy_user_pass) request.headers['Proxy-Authorization'] = 'Basic ' + encoded_user_pass

希望本文所述对大家的python程序设计有所帮助。

您可能感兴趣的文章:Python使用scrapy采集数据时为每个请求随机分配user-agent的方法Python爬虫_城市公交、地铁站点和线路数据采集实例Python使用scrapy采集数据过程中放回下载过大页面的方法influx+grafana自定义python采集数据和一些坑的总结Python采集猫眼两万条数据 对《无名之辈》影评进行分析



服务器 方法 数据 代理 scrapy 代理服务器 Python

需要 登录 后方可回复, 如果你还没有账号请 注册新账号
相关文章