python爬虫中requests库怎么用
导读:本文共3574.5字符,通常情况下阅读需要12分钟。同时您也可以点击右侧朗读,来听本文内容。按键盘←(左) →(右) 方向键可以翻页。
摘要: python爬虫—requests库的用法requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多,requests 允许你发送 HTTP/1.1 请求。指定 URL并添加查询url字符串即可开始爬取网页信息等操作因为是第三方库,所以使用前需要cmd安装pipinstallrequests安装完成后import一下,正常则说明可以... ...
目录
(为您整理了一些要点),点击可以直达。python爬虫—requests库的用法
requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多,requests 允许你发送 HTTP/1.1 请求。指定 URL并添加查询url字符串即可开始爬取网页信息等操作
因为是第三方库,所以使用前需要cmd安装
pipinstallrequests
安装完成后import一下,正常则说明可以开始使用了
基本用法:
requests.get()
用于请求目标网站,类型是一个HTTPresponse类型
importrequestsresponse=requests.get('http://www.baidu.com')print(response.status_code)#打印状态码print(response.url)#打印请求urlprint(response.headers)#打印头信息print(response.cookies)#打印cookie信息print(response.text)#以文本形式打印网页源码print(response.content)#以字节流形式打印
以打印状态码为例,运行结果:
状态码:200,证明请求目标网站正常
若状态码为403一般是目标存有防火墙,触发了反爬策略被限制了IP
各种请求方式:
importrequestsrequests.get('http://www.baidu.com')requests.post('http://www.baidu.com')requests.put('http://www.baidu.com')requests.delete('http://www.baidu.com')requests.head('http://www.baidu.com')requests.options('http://www.baidu.com')
基本的get请求
importrequestsresponse=requests.get('http://www.baidu.com')print(response.text)
带参数的GET请求:
第一种直接将参数放在url内
importrequestsresponse=requests.get("https://www.crrcgo.cc/admin/crr_supplier.html?params=1")print(response.text)
另一种先将参数填写在data中,发起请求时将params参数指定为data
importrequestsdata={'params':'1',}response=requests.get('https://www.crrcgo.cc/admin/crr_supplier.html?',params=data)print(response.text)
基本POST请求:
importrequestsresponse=requests.post('http://baidu.com')
解析json
importrequestsresponse=requests.get('http://httpbin.org/get')print(response.text)print(response.json())#response.json()方法同json.loads(response.text)print(type(response.json()))
简单保存一个二进制文件
importrequestsresponse=requests.get('http://img.ivsky.com/img/tupian/pre/201708/30/kekeersitao-002.jpg')b=response.contentwithopen('F://fengjing.jpg','wb')asf:f.write(b)
为你的请求添加头信息
importrequestsheads={}heads['User-Agent']='Mozilla/5.0'\'(Macintosh;U;IntelMacOSX10_6_8;en-us)AppleWebKit/534.50'\'(KHTML,likeGecko)Version/5.1Safari/534.50'response=requests.get('http://www.baidu.com',headers=headers)
此方法可以有效地避开防火墙的检测,隐藏自己身份
使用代理
同添加headers方法一样,代理参数也是一个dict这里使用requests库爬取了IP代理网站的IP与端口和类型。因为是免费的,使用的代理地址很快就失效了。
importrequestsimportredefget_html(url):proxy={'http':'120.25.253.234:812','https''163.125.222.244:8123'}heads={}heads['User-Agent']='Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/49.0.2623.221Safari/537.36SE2.XMetaSr1.0'req=requests.get(url,headers=heads,proxies=proxy)html=req.textreturnhtmldefget_ipport(html):regex=r'<tddata-title="IP">(.+)</td>'iplist=re.findall(regex,html)regex2='<tddata-title="PORT">(.+)</td>'portlist=re.findall(regex2,html)regex3=r'<tddata-title="类型">(.+)</td>'typelist=re.findall(regex3,html)sumray=[]foriiniplist:forpinportlist:fortintypelist:passpassa=t+','+i+':'+psumray.append(a)print('高匿代理')print(sumray)if__name__=='__main__':url='http://www.baidu.com'get_ipport(get_html(url))
获取cookie
importrequestsresponse=requests.get('http://www.baidu.com')print(response.cookies)print(type(response.cookies))fork,vinresponse.cookies.items():print(k+':'+v)
会话维持
importrequestssession=requests.Session()session.get('https://www.crrcgo.cc/admin/crr_supplier.html')response=session.get('https://www.crrcgo.cc/admin/')print(response.text)
证书验证设置
importrequestsfromrequests.packagesimporturllib3urllib3.disable_warnings()#从urllib3中消除警告response=requests.get('https://www.12306.cn',verify=False)#证书验证设为FALSEprint(response.status_code)
超时异常捕获
importrequestsfromrequests.exceptionsimportReadTimeouttry:res=requests.get('http://httpbin.org',timeout=0.1)print(res.status_code)exceptReadTimeout:print(timeout)
异常处理
使用try…except来捕获异常
importrequestsfromrequests.exceptionsimportReadTimeout,HTTPError,RequestExceptiontry:response=requests.get('http://www.baidu.com',timeout=0.5)print(response.status_code)exceptReadTimeout:print('timeout')exceptHTTPError:print('httperror')exceptRequestException:print('reqerror')
</div> <div class="zixun-tj-product adv-bottom"></div> </div> </div> <div class="prve-next-news">
python爬虫中requests库怎么用的详细内容,希望对您有所帮助,信息来源于网络。