python爬虫中requests库怎么用(python,requests,开发技术)

时间:2024-04-30 14:16:55 作者 : 石家庄SEO 分类 : 开发技术
  • TAG :

    python爬虫—requests库的用法

    requests是python实现的简单易用的HTTP库,使用起来比urllib简洁很多,requests 允许你发送 HTTP/1.1 请求。指定 URL并添加查询url字符串即可开始爬取网页信息等操作

    因为是第三方库,所以使用前需要cmd安装

    pipinstallrequests

    安装完成后import一下,正常则说明可以开始使用了

    基本用法:

    requests.get()用于请求目标网站,类型是一个HTTPresponse类型

    importrequestsresponse=requests.get('http://www.baidu.com')print(response.status_code)#打印状态码print(response.url)#打印请求urlprint(response.headers)#打印头信息print(response.cookies)#打印cookie信息print(response.text)#以文本形式打印网页源码print(response.content)#以字节流形式打印

    以打印状态码为例,运行结果:

    python爬虫中requests库怎么用

    状态码:200,证明请求目标网站正常

    若状态码为403一般是目标存有防火墙,触发了反爬策略被限制了IP

    各种请求方式:

    importrequestsrequests.get('http://www.baidu.com')requests.post('http://www.baidu.com')requests.put('http://www.baidu.com')requests.delete('http://www.baidu.com')requests.head('http://www.baidu.com')requests.options('http://www.baidu.com')

    基本的get请求

    importrequestsresponse=requests.get('http://www.baidu.com')print(response.text)

    python爬虫中requests库怎么用

    带参数的GET请求:

    第一种直接将参数放在url内

    importrequestsresponse=requests.get("https://www.crrcgo.cc/admin/crr_supplier.html?params=1")print(response.text)

    python爬虫中requests库怎么用

    另一种先将参数填写在data中,发起请求时将params参数指定为data

    importrequestsdata={'params':'1',}response=requests.get('https://www.crrcgo.cc/admin/crr_supplier.html?',params=data)print(response.text)

    python爬虫中requests库怎么用

    基本POST请求:

    importrequestsresponse=requests.post('http://baidu.com')

    python爬虫中requests库怎么用

    解析json

    importrequestsresponse=requests.get('http://httpbin.org/get')print(response.text)print(response.json())#response.json()方法同json.loads(response.text)print(type(response.json()))

    python爬虫中requests库怎么用

    简单保存一个二进制文件

    importrequestsresponse=requests.get('http://img.ivsky.com/img/tupian/pre/201708/30/kekeersitao-002.jpg')b=response.contentwithopen('F://fengjing.jpg','wb')asf:f.write(b)

    为你的请求添加头信息

    importrequestsheads={}heads['User-Agent']='Mozilla/5.0'\'(Macintosh;U;IntelMacOSX10_6_8;en-us)AppleWebKit/534.50'\'(KHTML,likeGecko)Version/5.1Safari/534.50'response=requests.get('http://www.baidu.com',headers=headers)

    此方法可以有效地避开防火墙的检测,隐藏自己身份

    使用代理

    同添加headers方法一样,代理参数也是一个dict这里使用requests库爬取了IP代理网站的IP与端口和类型。因为是免费的,使用的代理地址很快就失效了。

    importrequestsimportredefget_html(url):proxy={'http':'120.25.253.234:812','https''163.125.222.244:8123'}heads={}heads['User-Agent']='Mozilla/5.0(WindowsNT10.0;WOW64)AppleWebKit/537.36(KHTML,likeGecko)Chrome/49.0.2623.221Safari/537.36SE2.XMetaSr1.0'req=requests.get(url,headers=heads,proxies=proxy)html=req.textreturnhtmldefget_ipport(html):regex=r'<tddata-title="IP">(.+)</td>'iplist=re.findall(regex,html)regex2='<tddata-title="PORT">(.+)</td>'portlist=re.findall(regex2,html)regex3=r'<tddata-title="类型">(.+)</td>'typelist=re.findall(regex3,html)sumray=[]foriiniplist:forpinportlist:fortintypelist:passpassa=t+','+i+':'+psumray.append(a)print('高匿代理')print(sumray)if__name__=='__main__':url='http://www.baidu.com'get_ipport(get_html(url))

    获取cookie

    importrequestsresponse=requests.get('http://www.baidu.com')print(response.cookies)print(type(response.cookies))fork,vinresponse.cookies.items():print(k+':'+v)

    python爬虫中requests库怎么用

    会话维持

    importrequestssession=requests.Session()session.get('https://www.crrcgo.cc/admin/crr_supplier.html')response=session.get('https://www.crrcgo.cc/admin/')print(response.text)

    证书验证设置

    importrequestsfromrequests.packagesimporturllib3urllib3.disable_warnings()#从urllib3中消除警告response=requests.get('https://www.12306.cn',verify=False)#证书验证设为FALSEprint(response.status_code)

    超时异常捕获

    importrequestsfromrequests.exceptionsimportReadTimeouttry:res=requests.get('http://httpbin.org',timeout=0.1)print(res.status_code)exceptReadTimeout:print(timeout)

    异常处理

    使用try…except来捕获异常

    importrequestsfromrequests.exceptionsimportReadTimeout,HTTPError,RequestExceptiontry:response=requests.get('http://www.baidu.com',timeout=0.5)print(response.status_code)exceptReadTimeout:print('timeout')exceptHTTPError:print('httperror')exceptRequestException:print('reqerror')
     </div> <div class="zixun-tj-product adv-bottom"></div> </div> </div> <div class="prve-next-news">
    本文:python爬虫中requests库怎么用的详细内容,希望对您有所帮助,信息来源于网络。
    上一篇:Java中数组如何定义与使用下一篇:

    9 人围观 / 0 条评论 ↓快速评论↓

    (必须)

    (必须,保密)

    阿狸1 阿狸2 阿狸3 阿狸4 阿狸5 阿狸6 阿狸7 阿狸8 阿狸9 阿狸10 阿狸11 阿狸12 阿狸13 阿狸14 阿狸15 阿狸16 阿狸17 阿狸18