python爬虫开发之Request模块从安装到详细使用方法与实例全解
在cmd中,使用如下指令安装requests:
pipinstallrequests
Requests已安装
Requests是最新的
使用Requests发送网络请求非常简单。
一开始要导入Requests模块:
>>>importrequests
然后,尝试获取某个网页。本例子中,我们来获取Github的公共时间线:
>>>r=requests.get('https://api.github.com/events')
现在,我们有一个名为r的Response对象。我们可以从这个对象中获取所有我们想要的信息。
Requests简便的API意味着所有HTTP请求类型都是显而易见的。例如,你可以这样发送一个HTTPPOST请求:
>>>r=requests.post('http://httpbin.org/post',data={'key':'value'})
那么其他HTTP请求类型:PUT,DELETE,HEAD以及OPTIONS又是如何的呢?都是一样的简单:
>>>r=requests.put('http://httpbin.org/put',data={'key':'value'}) >>>r=requests.delete('http://httpbin.org/delete') >>>r=requests.head('http://httpbin.org/get') >>>r=requests.options('http://httpbin.org/get')
你也许经常想为URL的查询字符串(querystring)传递某种数据。如果你是手工构建URL,那么数据会以键/值对的形式置于URL中,跟在一个问号的后面。
例如,httpbin.org/get?key=val。Requests允许你使用params关键字参数,以一个字符串字典来提供这些参数。举例来说,如果你想传递key1=value1和key2=value2到httpbin.org/get,那么你可以使用如下代码:
>>>payload={'key1':'value1','key2':'value2'} >>>r=requests.get("http://httpbin.org/get",params=payload)
通过打印输出该URL,你能看到URL已被正确编码:
>>>print(r.url) http://httpbin.org/get?key2=value2&key1=value
注意字典里值为None的键都不会被添加到URL的查询字符串里。
你还可以将一个列表作为值传入:
>>>payload={'key1':'value1','key2':['value2','value3']} >>>r=requests.get('http://httpbin.org/get',params=payload) >>>print(r.url) http://httpbin.org/get?key1=value1&key2=value2&key2=value
我们能读取服务器响应的内容。再次以GitHub时间线为例:
>>>importrequests >>>r=requests.get('https://api.github.com/events') >>>r.text u'[{"repository":{"open_issues":0,"url":"https://github.com/...
Requests会自动解码来自服务器的内容。大多数unicode字符集都能被无缝地解码。
请求发出后,Requests会基于HTTP头部对响应的编码作出有根据的推测。
当你访问r.text之时,Requests会使用其推测的文本编码。
你可以找出Requests使用了什么编码,并且能够使用r.encoding属性来改变它:
>>>r.encoding 'utf-8' >>>r.encoding='ISO-8859-1'
如果你改变了编码,每当你访问r.text,Request都将会使用r.encoding的新值。
你可能希望在使用特殊逻辑计算出文本的编码的情况下来修改编码。比如HTTP和XML自身可以指定编码。这样的话,你应该使用r.content来找到编码,然后设置r.encoding为相应的编码。这样就能使用正确的编码解析r.text了。
在你需要的情况下,Requests也可以使用定制的编码。如果你创建了自己的编码,并使用codecs模块进行注册,你就可以轻松地使用这个解码器名称作为r.encoding的值,然后由Requests来为你处理编码。
你也能以字节的方式访问请求响应体,对于非文本请求:
>>>r.content b'[{"repository":{"open_issues":0,"url":"https://github.com/...
Requests会自动为你解码gzip和deflate传输编码的响应数据。
例如,以请求返回的二进制数据创建一张图片,你可以使用如下代码:
>>>fromPILimportImage >>>fromioimportBytesIO >>>i=Image.open(BytesIO(r.content))
Requests中也有一个内置的JSON解码器,助你处理JSON数据:
>>>importrequests >>>r=requests.get('https://api.github.com/events') >>>r.json() [{u'repository':{u'open_issues':0,u'url':'https://github.com/...
如果JSON解码失败,r.json()就会抛出一个异常。
例如,响应内容是401(Unauthorized),尝试访问r.json()将会抛出ValueError:NoJSONobjectcouldbedecoded异常。
需要注意的是,成功调用r.json()并不意味着响应的成功。
有的服务器会在失败的响应中包含一个JSON对象(比如HTTP500的错误细节)。这种JSON会被解码返回。要检查请求是否成功,请使用r.raise_for_status()或者检查r.status_code是否和你的期望相同。
在罕见的情况下,你可能想获取来自服务器的原始套接字响应,那么你可以访问r.raw。
如果你确实想这么干,那请你确保在初始请求中设置了stream=True。具体你可以这么做:
>>>r=requests.get('https://api.github.com/events',stream=True) >>>r.raw>>>r.raw.read(10) '\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'
但一般情况下,你应该以下面的模式将文本流保存到文件:
withopen(filename,'wb')asfd: forchunkinr.iter_content(chunk_size): fd.write(chunk)
使用Response.iter_content将会处理大量你直接使用Response.raw不得不处理的。当流下载时,上面是优先推荐的获取内容方式。Notethatchunk_sizecanbefreelyadjustedtoanumberthatmaybetterfityourusecases.
如果你想为请求添加HTTP头部,只要简单地传递一个dict给headers参数就可以了。
>>>url='https://api.github.com/some/endpoint' >>>headers={'user-agent':'my-app/0.0.1'} >>>r=requests.get(url,headers=headers)
注意:定制header的优先级低于某些特定的信息源,例如:
如果在.netrc中设置了用户认证信息,使用headers=设置的授权就不会生效。
如果设置了auth=参数,.netrc的设置就无效了。
如果被重定向到别的主机,授权header就会被删除。
代理授权header会被URL中提供的代理身份覆盖掉。
在我们能判断内容长度的情况下,header的Content-Length会被改写。
更进一步讲,Requests不会基于定制header的具体情况改变自己的行为。只不过在最后的请求中,所有的header信息都会被传递进去。
注意:所有的header值必须是string、bytestring或者unicode。尽管传递unicodeheader也是允许的,但不建议这样做。
通常,你想要发送一些编码为表单形式的数据——非常像一个HTML表单。
要实现这个,只需简单地传递一个字典给data参数。你的数据字典在发出请求时会自动编码为表单形式:
>>>payload={'key1':'value1','key2':'value2'} >>>r=requests.post("http://httpbin.org/post",data=payload) >>>print(r.text) { ... "form":{ "key2":"value2", "key1":"value1" }, ... }
你还可以为data参数传入一个元组列表。
在表单中多个元素使用同一key的时候,这种方式尤其有效:
>>>payload=(('key1','value1'),('key1','value2')) >>>r=requests.post('http://httpbin.org/post',data=payload) >>>print(r.text) { ... "form":{ "key1":[ "value1", "value2" ] }, ... }
很多时候你想要发送的数据并非编码为表单形式的。
如果你传递一个string而不是一个dict,那么数据会被直接发布出去。
例如,GithubAPIv3接受编码为JSON的POST/PATCH数据:
>>>importjson >>>url='https://api.github.com/some/endpoint' >>>payload={'some':'data'} >>>r=requests.post(url,data=json.dumps(payload))
此处除了可以自行对dict进行编码,你还可以使用json参数直接传递,然后它就会被自动编码
这是2.4.2版的新加功能:
>>>url='https://api.github.com/some/endpoint' >>>payload={'some':'data'} >>>r=requests.post(url,json=payload)
POST一个多部分编码(Multipart-Encoded)的文件
Requests使得上传多部分编码文件变得很简单:
>>>url='http://httpbin.org/post' >>>files={'file':open('report.xls','rb')} >>>r=requests.post(url,files=files) >>>r.text { ... "files":{ "file":"" }, ... }
你可以显式地设置文件名,文件类型和请求头:
>>>url='http://httpbin.org/post' >>>files={'file':('report.xls',open('report.xls','rb'),'application/vnd.ms-excel',{'Expires':'0'})} >>>r=requests.post(url,files=files) >>>r.text { ... "files":{ "file":"" }, ... }
如果你想,你也可以发送作为文件来接收的字符串:
>>>url='http://httpbin.org/post' >>>files={'file':('report.csv','some,data,to,send\nanother,row,to,send\n')} >>>r=requests.post(url,files=files) >>>r.text { ... "files":{ "file":"some,data,to,send\\nanother,row,to,send\\n" }, ... }
如果你发送一个非常大的文件作为multipart/form-data请求,你可能希望将请求做成数据流。默认下requests不支持,但有个第三方包requests-toolbelt是支持的。你可以阅读toolbelt文档来了解使用方法。
在一个请求中发送多文件参考高级用法一节。
我们强烈建议你用二进制模式(binarymode)打开文件。这是因为Requests可能会试图为你提供Content-Lengthheader,在它这样做的时候,这个值会被设为文件的字节数(bytes)。如果用文本模式(textmode)打开文件,就可能会发生错误。
我们可以检测响应状态码:
>>>r=requests.get('http://httpbin.org/get') >>>r.status_code 200
为方便引用,Requests还附带了一个内置的状态码查询对象:
>>>r.status_code==requests.codes.ok True
如果发送了一个错误请求(一个4XX客户端错误,或者5XX服务器错误响应)
我们可以通过Response.raise_for_status()来抛出异常:
>>>bad_r=requests.get('http://httpbin.org/status/404') >>>bad_r.status_code 404 >>>bad_r.raise_for_status() Traceback(mostrecentcalllast): File"requests/models.py",line832,inraise_for_status raisehttp_error requests.exceptions.HTTPError:404ClientError
我们可以查看以一个Python字典形式展示的服务器响应头:
>>>r.headers { 'content-encoding':'gzip', 'transfer-encoding':'chunked', 'connection':'close', 'server':'nginx/1.0.4', 'x-runtime':'148ms', 'etag':'"e1ca502697e5c9317743dc078f67693f"', 'content-type':'application/json' }
但是这个字典比较特殊:它是仅为HTTP头部而生的。根据RFC2616,HTTP头部是大小写不敏感的。
因此,我们可以使用任意大写形式来访问这些响应头字段:
>>>r.headers['Content-Type'] 'application/json' >>>r.headers.get('content-type') 'application/json'
它还有一个特殊点,那就是服务器可以多次接受同一header,每次都使用不同的值。但Requests会将它们合并,这样它们就可以用一个映射来表示出来,接收者可以合并多个相同名称的header栏位,把它们合为一个“field-name:field-value”配对,将每个后续的栏位值依次追加到合并的栏位值中,用逗号隔开即可,这样做不会改变信息的语义。
如果某个响应中包含一些cookie,你可以快速访问它们:
>>>url='http://example.com/some/cookie/setting/url' >>>r=requests.get(url) >>>r.cookies['example_cookie_name'] 'example_cookie_value'
要想发送你的cookies到服务器,可以使用cookies参数:
>>>url='http://httpbin.org/cookies' >>>cookies=dict(cookies_are='working') >>>r=requests.get(url,cookies=cookies) >>>r.text '{"cookies":{"cookies_are":"working"}}'
Cookie的返回对象为RequestsCookieJar,它的行为和字典类似,但接口更为完整,适合跨域名跨路径使用。你还可以把CookieJar传到Requests中:
>>>jar=requests.cookies.RequestsCookieJar() >>>jar.set('tasty_cookie','yum',domain='httpbin.org',path='/cookies') >>>jar.set('gross_cookie','blech',domain='httpbin.org',path='/elsewhere') >>>url='http://httpbin.org/cookies' >>>r=requests.get(url,cookies=jar) >>>r.text '{"cookies":{"tasty_cookie":"yum"}}'
默认情况下,除了HEAD,Requests会自动处理所有重定向。
可以使用响应对象的history方法来追踪重定向。
Response.history是一个Response对象的列表,为了完成请求而创建了这些对象。这个对象列表按照从最老到最近的请求进行排序。
例如,Github将所有的HTTP请求重定向到HTTPS:
>>>r=requests.get('http://github.com') >>>r.url 'https://github.com/' >>>r.status_code 200 >>>r.history []
如果你使用的是GET、OPTIONS、POST、PUT、PATCH或者DELETE
那么你可以通过allow_redirects参数禁用重定向处理:
>>>r=requests.get('http://github.com',allow_redirects=False) >>>r.status_code 301 >>>r.history []
如果你使用了HEAD,你也可以启用重定向:
>>>r=requests.head('http://github.com',allow_redirects=True) >>>r.url 'https://github.com/' >>>r.history []
你可以告诉requests在经过以timeout参数设定的秒数时间之后停止等待响应。基本上所有的生产代码都应该使用这一参数。如果不使用,你的程序可能会永远失去响应:
>>>requests.get('http://github.com',timeout=0.001) Traceback(mostrecentcalllast): File"",line1,in requests.exceptions.Timeout:HTTPConnectionPool(host='github.com',port=80):Requesttimedout.(timeout=0.001)
注意timeout仅对连接过程有效,与响应体的下载无关。timeout并不是整个下载响应的时间限制,而是如果服务器在timeout秒内没有应答,将会引发一个异常(更精确地说,是在timeout秒内没有从基础套接字上接收到任何字节的数据时)Ifnotimeoutisspecifiedexplicitly,requestsdonottimeout.
- 遇到网络问题(如:DNS查询失败、拒绝连接等)时,Requests会抛出一个ConnectionError异常。
- 如果HTTP请求返回了不成功的状态码,Response.raise_for_status()会抛出一个HTTPError异常。
- 若请求超时,则抛出一个Timeout异常。
- 若请求超过了设定的最大重定向次数,则会抛出一个TooManyRedirects异常。
- 所有Requests显式抛出的异常都继承自requests.exceptions.RequestException。
如果需要使用代理,你可以通过为任意请求方法提供proxies参数来配置单个请求:
importrequests proxies={ "http":"http://10.10.1.10:3128", "https":"http://10.10.1.10:1080", } requests.get("http://example.org",proxies=proxies)
你也可以通过环境变量HTTP_PROXY和HTTPS_PROXY来配置代理。
$exportHTTP_PROXY="http://10.10.1.10:3128" $exportHTTPS_PROXY="http://10.10.1.10:1080" $python >>>importrequests >>>requests.get("http://example.org")
若你的代理需要使用HTTPBasicAuth,可以使用http://user:password@host/语法:
proxies={ "http":"http://user:pass@10.10.1.10:3128/", }
要为某个特定的连接方式或者主机设置代理,使用scheme://hostname作为key,它会针对指定的主机和连接方式进行匹配。
proxies={'http://10.20.1.128':'http://10.10.1.10:5323'}
注意,代理URL必须包含连接方式。
至此python爬虫模块Request从安装到详细使用方法与实例全解基本就结束了,更多关于python爬虫模块Request的使用方法与实例请查看下面的相关链接
声明:本文内容来源于网络,版权归原作者所有,内容由互联网用户自发贡献自行上传,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任。如果您发现有涉嫌版权的内容,欢迎发送邮件至:czq8825#qq.com(发邮件时,请将#更换为@)进行举报,并提供相关证据,一经查实,本站将立刻删除涉嫌侵权内容。