python爬虫用request库处理cookie的实例讲解
python爬虫中使用urli库可以使用opener"发送多个请求,这些请求是能共享处理cookie的,小编之前也提过python爬虫中使用request库会比urllib库更加⽅便,使用使用requests也能达到共享cookie的目的,即使用request库get方法和使用requests库提供的session对象都可以处理。
方法一:使用request库get方法
resp=requests.get('http://www.baidu.com/') print(resp.cookies) print(resp.cookies.get_dict())
方法二:使用requests库提供的session对象
importrequests url="http://www.renren.com/PLogin.do" data={"email":"970138074@qq.com",'password':"pythonspider"} headers={'User-Agent':"Mozilla/5.0(WindowsNT10.0;Win64;x64)AppleWebKit/537.36 (KHTML,likeGecko)Chrome/62.0.3202.94Safari/537.36"} #登录 session=requests.session()session.post(url,data=data,headers=headers) #访问 resp=session.get('http://www.renren.com/256450404/profile') print(resp.text)```
知识点扩展:
我们知道了requests中的session对象能够在请求之间保持cookie,它极大地方便了我们去使用cookie。当我们想设置方法级别中的请求时,可以如下面示例一样操作。
importrequests s=requests.session() #第一步:发送一个请求,用于设置请求中的cookies cookies=dict(cookies_are='cookie1') #tips:http://httpbin.org能够用于测试http请求和响应 r1=s.get(url='http://httpbin.org/cookies',cookies=cookies) print(r1.text) #第二步:发送一个请求,用于再次设置请求中的cookies cookies=dict(cookies_are='cookie2') r2=s.get(url='http://httpbin.org/cookies',cookies=cookies) print(r2.text)
运行后
#r1.text { "cookies":{ "cookies_are":"cookie1" } } #t2.text { "cookies":{ "cookies_are":"cookie2" } }
到此这篇关于python爬虫用request库处理cookie的实例讲解的文章就介绍到这了,更多相关python爬虫如何使用request库处理cookie内容请搜索毛票票以前的文章或继续浏览下面的相关文章希望大家以后多多支持毛票票!
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。