iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >python爬虫中requests库怎么用
  • 852
分享到

python爬虫中requests库怎么用

2023-06-25 15:06:23 852人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

小编给大家分享一下python爬虫中requests库怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python爬虫—requests库的用法request

小编给大家分享一下python爬虫中requests库怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

    python爬虫—requests库的用法

    requests是Python实现的简单易用的Http库,使用起来比urllib简洁很多,requests 允许你发送 HTTP/1.1 请求。指定 URL并添加查询url字符串即可开始爬取网页信息等操作

    因为是第三方库,所以使用前需要cmd安装

    pip install requests

    安装完成后import一下,正常则说明可以开始使用了

    基本用法:

    requests.get()用于请求目标网站,类型是一个HTTPresponse类型

    import requestsresponse = requests.get('http://www.baidu.com')print(response.status_code)  # 打印状态码print(response.url)          # 打印请求urlprint(response.headers)      # 打印头信息print(response.cookies)      # 打印cookie信息print(response.text)  #以文本形式打印网页源码print(response.content) #以字节流形式打印

    以打印状态码为例,运行结果:

    python爬虫中requests库怎么用

    状态码:200,证明请求目标网站正常

    若状态码为403一般是目标存有防火墙,触发了反爬策略被限制了IP

    各种请求方式:

    import requestsrequests.get('http://www.baidu.com')requests.post('http://www.baidu.com')requests.put('http://www.baidu.com')requests.delete('http://www.baidu.com')requests.head('http://www.baidu.com')requests.options('http://www.baidu.com')

    基本的get请求

    import requestsresponse = requests.get('http://www.baidu.com')print(response.text)

    python爬虫中requests库怎么用

    带参数的GET请求:

    第一种直接将参数放在url内

    import requestsresponse = requests.get("https://www.crrcGo.cc/admin/crr_supplier.html?params=1")print(response.text)

    python爬虫中requests库怎么用

    另一种先将参数填写在data中,发起请求时将params参数指定为data

    import requestsdata = {    'params': '1',}response = requests.get('https://www.crrcgo.cc/admin/crr_supplier.html?', params=data)print(response.text)

    python爬虫中requests库怎么用

    基本POST请求:

    import requestsresponse = requests.post('http://baidu.com')

    python爬虫中requests库怎么用

    解析JSON

    import requestsresponse = requests.get('http://httpbin.org/get')print(response.text)print(response.json())  #response.json()方法同json.loads(response.text)print(type(response.json()))

    python爬虫中requests库怎么用

    简单保存一个二进制文件

    import requestsresponse = requests.get('http://img.ivsky.com/img/tupian/pre/201708/30/kekeersitao-002.jpg')b = response.contentwith open('F://fengjing.jpg','wb') as f:    f.write(b)

    为你的请求添加头信息

    import requestsheads = {}heads['User-Agent'] = 'Mozilla/5.0 ' \                          '(Macintosh; U; Intel Mac OS X 10_6_8; en-us) AppleWEBKit/534.50 ' \                          '(KHTML, like Gecko) Version/5.1 Safari/534.50' response = requests.get('http://www.baidu.com',headers=headers)

    此方法可以有效地避开防火墙的检测,隐藏自己身份

    使用代理

    同添加headers方法一样,代理参数也是一个dict这里使用requests库爬取了IP代理网站的IP与端口和类型。因为是免费的,使用的代理地址很快就失效了。

    import requestsimport redef get_html(url):    proxy = {        'http': '120.25.253.234:812',        'https' '163.125.222.244:8123'    }    heads = {}    heads['User-Agent'] = 'Mozilla/5.0 (windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221 Safari/537.36 SE 2.X MetaSr 1.0'    req = requests.get(url, headers=heads,proxies=proxy)    html = req.text    return htmldef get_ipport(html):    regex = r'<td data-title="IP">(.+)</td>'    iplist = re.findall(regex, html)    regex2 = '<td data-title="PORT">(.+)</td>'    portlist = re.findall(regex2, html)    regex3 = r'<td data-title="类型">(.+)</td>'    typelist = re.findall(regex3, html)    sumray = []    for i in iplist:        for p in portlist:            for t in typelist:                pass            pass        a = t+','+i + ':' + p        sumray.append(a)    print('高匿代理')    print(sumray)if __name__ == '__main__':    url = 'http://www.baidu.com'    get_ipport(get_html(url))

    获取cookie

    import requestsresponse = requests.get('http://www.baidu.com')print(response.cookies)print(type(response.cookies))for k,v in response.cookies.items():    print(k+':'+v)

    python爬虫中requests库怎么用

    会话维持

    import requestssession = requests.Session()session.get('https://www.crrcgo.cc/admin/crr_supplier.html')response = session.get('https://www.crrcgo.cc/admin/')print(response.text)

    证书验证设置

    import requestsfrom requests.packages import urllib3urllib3.disable_warnings()  #从urllib3中消除警告response = requests.get('https://www.12306.cn',verify=False)  #证书验证设为FALSEprint(response.status_code)

    超时异常捕获

    import requestsfrom requests.exceptions import ReadTimeouttry:    res = requests.get('http://httpbin.org', timeout=0.1)    print(res.status_code)except ReadTimeout:    print(timeout)

    异常处理

    使用try…except来捕获异常

    import requestsfrom requests.exceptions import ReadTimeout,HTTPError,RequestExceptiontry:    response = requests.get('http://www.baidu.com',timeout=0.5)    print(response.status_code)except ReadTimeout:    print('timeout')except HTTPError:    print('httperror')except RequestException:    print('reqerror')

    以上是“python爬虫中requests库怎么用”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网Python频道!

    --结束END--

    本文标题: python爬虫中requests库怎么用

    本文链接: https://www.lsjlt.com/news/305829.html(转载时请注明来源链接)

    有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

    本篇文章演示代码以及资料文档资料下载

    下载Word文档到电脑,方便收藏和打印~

    下载Word文档
    猜你喜欢
    • python爬虫中requests库怎么用
      小编给大家分享一下python爬虫中requests库怎么用,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python爬虫—requests库的用法request...
      99+
      2023-06-25
    • Python网络爬虫requests库怎么使用
      1. 什么是网络爬虫简单来说,就是构建一个程序,以自动化的方式从网络上下载、解析和组织数据。就像我们浏览网页的时候,对于我们感兴趣的内容我们会复制粘贴到自己的笔记本中,方便下次阅读浏览&mdash;&mdash;网络爬虫帮我...
      99+
      2023-05-15
      Python Requests
    • Python爬虫Requests库如何使用
      本篇内容主要讲解“Python爬虫Requests库如何使用”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python爬虫Requests库如何使用”吧!1、安装 requests 库因为学习过...
      99+
      2023-07-06
    • Python爬虫之Requests库的基
      1 import requests 2 response = requests.get('http://www.baidu.com/') 3 print(type(response)) 4 print(response....
      99+
      2023-01-30
      爬虫 Python Requests
    • Python爬虫Requests库的使用详情
      目录一、Requests库的7个主要的方法二、Response对象的属性三、爬取网页通用代码四、Resquests库的常见异常五、Robots协议展示六、案例展示一、Requests...
      99+
      2024-04-02
    • python: 爬虫利器requests
      requests并不是系统自带的模块,他是第三方库,需要安装才能使用 闲话少说,来,让我们上代码:简单的看一下效果: import requests requests = requests.session() headers = { ...
      99+
      2023-01-31
      爬虫 利器 python
    • python爬虫之requests库的使用详解
      目录python爬虫—requests库的用法基本的get请求带参数的GET请求:解析json使用代理获取cookie会话维持证书验证设置超时异常捕获异常处理 总结 python爬虫...
      99+
      2024-04-02
    • Python网络爬虫requests库如何使用
      这篇文章主要讲解了“Python网络爬虫requests库如何使用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“Python网络爬虫requests库如何使用”吧!1. 什么是网络爬虫简单来...
      99+
      2023-07-06
    • Python爬虫之requests库基本介绍
      目录一、说明二、基本用法:总结一、说明 requests是一个很实用的Python HTTP客户端库,爬虫和测试服务器响应数据时经常会用到,requests是Python语言的第三方...
      99+
      2024-04-02
    • python爬虫之requests库使用代理方式
      目录安装上requests库GET方法谷歌浏览器的开发者工具POST方法使用代理在看这篇文章之前,需要大家掌握的知识技能: python基础html基础http状态码 让我们看看这篇...
      99+
      2024-04-02
    • Python爬虫中urllib库怎么用
      这篇文章给大家分享的是有关Python爬虫中urllib库怎么用的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、说明:urllib库是python内置的一个http请求库,requests库就是基于该库开发出来...
      99+
      2023-06-29
    • 关于Python网络爬虫requests库的介绍
      1. 什么是网络爬虫 简单来说,就是构建一个程序,以自动化的方式从网络上下载、解析和组织数据。 就像我们浏览网页的时候,对于我们感兴趣的内容我们会复制粘贴到自己的笔记本中,方便下次阅...
      99+
      2023-05-18
      Python网络爬虫 Python requests库
    • python爬虫怎么利用requests制作代理池s
      本篇内容介绍了“python爬虫怎么利用requests制作代理池s”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!  爬取代理然后验证代理,...
      99+
      2023-06-02
    • Python 爬虫库RoboBrowser怎么用
      这篇文章主要介绍“Python 爬虫库RoboBrowser怎么用”,在日常操作中,相信很多人在Python 爬虫库RoboBrowser怎么用问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”Python 爬虫...
      99+
      2023-06-13
    • python爬虫之利用Selenium+Requests爬取拉勾网
      目录一、前言二、分析url三、获取所有城市和页数四、生成params参数五、获取数据六、总结一、前言 利用selenium+requests访问页面爬取拉勾网招聘信息 二、分析url...
      99+
      2024-04-02
    • python爬虫怎么使用BeautifulSoup库
      本篇内容介绍了“python爬虫怎么使用BeautifulSoup库”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!  BeautiSoup类...
      99+
      2023-06-02
    • Python3爬虫利器:requests怎么安装
      这篇文章主要介绍了Python3爬虫利器:requests怎么安装,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python可以做什么Python是一种编程语言,内置了许多有...
      99+
      2023-06-14
    • Python怎么用requests模块实现动态网页爬虫
      小编给大家分享一下Python怎么用requests模块实现动态网页爬虫,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!开发工具Python版本: 3.6.4相关模块:urllib模块;random模块;requests模块...
      99+
      2023-06-29
    • 爬虫笔记1:Python爬虫常用库
      请求库:1、urllib:urllib库是Python3自带的库(Python2有urllib和urllib2,到了Python3统一为urllib),这个库是爬虫里最简单的库。2、requests:requests属于第三方库,使用起来...
      99+
      2023-01-31
      爬虫 常用 笔记
    • Python爬虫学习之requests的使用教程
      目录requests库简介requests库安装1、pip命令安装2、下载代码进行安装requests库的使用发送请求get请求抓取二进制数据post请求POST请求的文件上传利用r...
      99+
      2024-04-02
    软考高级职称资格查询
    编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
    • 官方手机版

    • 微信公众号

    • 商务合作