Python开发中爬虫使用代理proxy抓取网页的方法示例
本文实例讲述了Python开发中爬虫使用代理proxy抓取网页的方法。分享给大家供大家参考,具体如下:
代理类型(proxy):透明代理匿名代理混淆代理和高匿代理.这里写一些python爬虫使用代理的知识,还有一个代理池的类.方便大家应对工作中各种复杂的抓取问题。
urllib模块使用代理
urllib/urllib2使用代理比较麻烦,需要先构建一个ProxyHandler的类,随后将该类用于构建网页打开的opener的类,再在request中安装该opener.
代理格式是"http://127.0.0.1:80",如果要账号密码是"http://user:password@127.0.0.1:80".
proxy="http://127.0.0.1:80" #创建一个ProxyHandler对象 proxy_support=urllib.request.ProxyHandler({'http':proxy}) #创建一个opener对象 opener=urllib.request.build_opener(proxy_support) #给request装载opener urllib.request.install_opener(opener) #打开一个url r=urllib.request.urlopen('http://youtube.com',timeout=120)
requests模块使用代理
requests使用代理要比urllib简单多了…这里以单次代理为例.多次的话可以用session一类构建.
如果需要使用代理,你可以通过为任意请求方法提供proxies参数来配置单个请求:
importrequests proxies={ "http":"http://127.0.0.1:3128", "https":"http://127.0.0.1:2080", } r=requests.get("http://youtube.com",proxies=proxies) printr.text
你也可以通过环境变量HTTP_PROXY和HTTPS_PROXY来配置代理。
exportHTTP_PROXY="http://127.0.0.1:3128" exportHTTPS_PROXY="http://127.0.0.1:2080" python >>>importrequests >>>r=requests.get("http://youtube.com") >>>printr.text
若你的代理需要使用HTTPBasicAuth,可以使用http://user:password@host/语法:
proxies={ "http":"http://user:pass@127.0.0.1:3309/", }
python的代理使用非常简单,最重要的是要找一个网络稳定可靠的代理。
更多关于Python相关内容可查看本站专题:《PythonSocket编程技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。