iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >Python urllib如何使用
  • 376
分享到

Python urllib如何使用

2023-07-04 14:07:48 376人浏览 泡泡鱼

Python 官方文档:入门教程 => 点击学习

摘要

本篇内容介绍了“python urllib如何使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!一、简介urllib 库,它是 P

本篇内容介绍了“python urllib如何使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

一、简介

urllib 库,它是 Python 内置的 Http 请求库,不需要额外安装即可使用,它包含四个模块:

`request` 请求模块,提供最基本的 `HTTP` 请求处理。`parse` 工具模块,提供处理 `url` 的很多方法:拆分、解析、合并等等。`error` 异常处理模块,如果出现请求错误,可以捕获这些错误,保证程序不会意外终止。`robotparser` 模块,主要用来识别网站的 `robots.txt` 文件,判断哪些网站可以爬取,用的比较少。

二、 request 模块

urlopen:打开一个指定 URL,然后使用 read() 获取网页的 html 实体代码。

# 使用 urllibimport urllib.request# 1、定义一个 urlurl = 'http://www.baidu.com'# 2、模拟浏览器向服务器发送请求response = urllib.request.urlopen(url)# 3、获取响应数据中的页面源码(注意:read() 返回的是字节形式的二进制数据,返回数据会被 b'xxx' 进行包裹)content = response.read()# 4、输出二进制数据 contentprint(content)# 输出结果:b'<html>\r\n<head>\r\n\t<script>\r\n\t\tlocation.replace(location.href.replace("https://","http://"));\r\n\t</script>\r\n</head>\r\n<body>\r\n\t<noscript><meta http-equiv="refresh" content="0;url=http://www.baidu.com/"></noscript>\r\n</body>\r\n</html>'# 5、将二进制数据转成字符串,这里需要网页对应的编码格式(例如:<meta http-equiv="Content-Type" content="text/html;charset=utf-8">),charset= 的就是编码格式 utf-8content = content.decode('utf-8')# 6、输出字符串 contentprint(content)

response:响应的数据对象 HTTPResponse 类型

# 使用 urllibimport urllib.request# 1、定义一个 urlurl = 'http://www.baidu.com'# 2、模拟浏览器向服务器发送请求response = urllib.request.urlopen(url)# response 是 http.client.HTTPResponse 类型print(type(response))# read 方法是按照一个字节一个字节的去读取内容content = response.read()print(content)# read 方法可以指定读取多少个字节content = response.read(50)print(content)# 读取一行content = response.readline()print(content)# 读取所有行content = response.readlines()print(content)# 获取状态码print(response.getcode())# 获取访问的链接地址print(response.geturl())# 获取 headersprint(response.getheaders())

Request:自定义请求对象

# 使用 urllibimport urllib.request# url 的组成# https://www.baidu.com/s?wd=123# 协议         主机               端口号    路径   参数   锚点# http/https   www.baidu.com      80      s     wd     ## http                            80# https                           443# mysql                           3306# oracle                          1521# redis                           6379# mongdb                          27017# 1、定义一个 https 的 urlurl = 'https://www.baidu.com'# 2、模拟浏览器向服务器发送请求response = urllib.request.urlopen(url)# 3、获取内容字符串content = response.read().decode('utf-8')# 4 会发现直接这么拿回来的数据不完整,这就是反扒的其中一种,代表给到服务器识别的信息不完整,比如 header 头里面的请求信息缺少。print(content)# 解决方式:# 定义 headerheaders = {  # UA 最基本的防爬识别  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWEBKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}# 1、定义一个 https 的 urlurl = 'https://www.baidu.com'# 2、定义一个 Request 对象,urlopen 方法并不能直接带 header。# 细节:为什么这里需要写 url=url 而有的地方不需要?因为 Request 构造方法传参顺序问题 Request(url, data=None, headers={} ...)request = urllib.request.Request(url=url, headers=headers)# 3、模拟浏览器向服务器发送请求response = urllib.request.urlopen(request)# 3、获取内容字符串content = response.read().decode('utf-8')# 4 输出print(content)

urlretrieve:下载(例如:图片、视频、网页源码&hellip;)

# 使用 urllibimport urllib.request# 下载网页url = 'http://www.baidu.com'# 参数1:页面地址,参数2:文件名称(或路径与名称,例如:./test/baidu.html、baidu.html,不指定路径默认当前)urllib.request.urlretrieve(url, 'baidu.html')# 下载图片url = 'https://gimg2.baidu.com/image_search/src=http%3A%2F%2Fpic1.win4000.com%2Fwallpaper%2F8%2F55402f62682e3.jpg&refer=http%3A%2F%2Fpic1.win4000.com&app=2002&size=f9999,10000&q=a80&n=0&g=0n&fmt=auto?sec=1670904201&t=2dc001fbd959432efe8b8ee0792589ba'# 参数1:页面地址,参数2:文件名称(或路径与名称,例如:./test/baidu.html、baidu.html,不指定路径默认当前)urllib.request.urlretrieve(url, 'dzm.jpg')

二、 parse 模块

quote:(GET)参数进行 unicode 编码

quote 会对参数进行 unicode 编码,但是得一个一个参数的进行转换,在进行拼接,在多个参数时使用起来比较麻烦。

# 使用 urllibimport urllib.request# 定义 headerheaders = {  # UA 最基本的防爬识别  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}# 1、定义一个 https 的 url# 这种中文写法会报错,因为 ascii 检索不到# url = 'https://www.baidu.com/s?wd=卡尔特斯CSDN'# 也就是需要 `卡尔特斯CSDN` 变成 unicode 编码格式,例如这样:# url = 'https://www.baidu.com/s?wd=%E5%8D%A1%E5%B0%94%E7%89%B9%E6%96%AFCSDN'# 准备基础地址(不能整个链接去进行 quote 转换)(GET)url = 'https://www.baidu.com/s?wd='# 通过 urllib.parse.quote() 进行转换wd = urllib.parse.quote('卡尔特斯CSDN')# print(wd) # %E5%8D%A1%E5%B0%94%E7%89%B9%E6%96%AFCSDN# 拼接起来url = url + wd# 2、定义一个 Request 对象,urlopen 方法并不能直接带 header。# 细节:为什么这里需要写 url=url 而有的地方不需要?因为 Request 构造方法传参顺序问题 Request(url, data=None, headers={} ...)request = urllib.request.Request(url=url, headers=headers)# 3、模拟浏览器向服务器发送请求response = urllib.request.urlopen(request)# 3、获取内容字符串content = response.read().decode('utf-8')# 4 输出print(content)

urlencode:(GET)参数进行 unicode 编码

urlencode 会对多个参数进行 unicode 编码。

# 使用 urllibimport urllib.request# 定义 headerheaders = {  # UA 最基本的防爬识别  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}# 1、定义一个 https 的 url# 这种中文写法会报错,因为 ascii 检索不到# url = 'https://www.baidu.com/s?wd=卡尔特斯CSDN&sex=男'# 也就是需要 `卡尔特斯CSDN` 与 `男` 变成 unicode 编码格式,例如这样:# url = 'https://www.baidu.com/s?wd=%E5%8D%A1%E5%B0%94%E7%89%B9%E6%96%AFCSDN&sex=%E7%94%B7'# 准备基础地址(不能整个链接去进行 quote 转换)(GET)url = 'https://www.baidu.com/s?'# 参数params = {  'wd': '卡尔特斯CSDN',  'sex': '男'}# 通过 urllib.parse.urlencode() 进行转换(多个参数)str = urllib.parse.urlencode(params)# print(str) # wd=%E5%8D%A1%E5%B0%94%E7%89%B9%E6%96%AFCSDN&sex=%E7%94%B7# 通过 urllib.parse.quote() 进行转换(单个参数)# wd = urllib.parse.urlencode('卡尔特斯CSDN')# print(wd) # %E5%8D%A1%E5%B0%94%E7%89%B9%E6%96%AFCSDN# 拼接起来url = url + str# 2、定义一个 Request 对象,urlopen 方法并不能直接带 header。# 细节:为什么这里需要写 url=url 而有的地方不需要?因为 Request 构造方法传参顺序问题 Request(url, data=None, headers={} ...)request = urllib.request.Request(url=url, headers=headers)# 3、模拟浏览器向服务器发送请求response = urllib.request.urlopen(request)# 3、获取内容字符串content = response.read().decode('utf-8')# 4 输出print(content)

urlencode:(POST)参数进行 unicode 编码,附:python爬虫Xpath定位数据的两种方法

# 使用 urllibimport urllib.request# 使用 JSONimport json# 定义 headerheaders = {  # UA 最基本的防爬识别  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}# 请求地址(POST)url = 'https://fanyi.baidu.com/sug'# 参数params = {  'kw': '名称'}# post 请求,参数不能进行拼接,需放到请求对象指定的参数对象中# 通过 urllib.parse.urlencode() 进行转换(多个参数)# str = urllib.parse.urlencode(params)# 直接使用转换的参数字符串会报错:POST data should be bytes, an iterable of bytes, or a file object. It cannot be of type str.# request = urllib.request.Request(url=url, data=str, headers=headers)# 上面直接使用参数字符串会报错,是因为 post 请求参数必须要要进行编码,指定编码格式data = urllib.parse.urlencode(params).encode('utf-8')# 模拟浏览器向服务器发送请求request = urllib.request.Request(url=url, data=data, headers=headers)# 模拟浏览器向服务器发送请求response = urllib.request.urlopen(request)# 获取内容字符串content = response.read().decode('utf-8')# 将字符串转成 jsonobj = json.loads(content)# 输出 jsonprint(obj)

三、 error 模块(URLError 与 HTTPError)

HTTPError 类是 URLError 类的子类。

导入包分别是:urllib.error.URLErrorurllib.error.HTTPError

通过 urllib 发送请求的时候,有可能发送失败,可以通过 try-except 进行异常捕获,异常有两类:URLErrorHTTPError 类。

# 使用 urllibimport urllib.request# 使用 jsonimport json# 定义 headerheaders = {  # UA 最基本的防爬识别  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/107.0.0.0 Safari/537.36'}# 请求地址(POST)url = 'https://fanyi.baidu.com/sug'# 参数params = {  'kw': '名称'}# post 请求,参数不能进行拼接,需放到请求对象指定的参数对象中# 通过 urllib.parse.urlencode() 进行转换(多个参数)# str = urllib.parse.urlencode(params)# 直接使用转换的参数字符串会报错:POST data should be bytes, an iterable of bytes, or a file object. It cannot be of type str.# request = urllib.request.Request(url=url, data=str, headers=headers)# 上面直接使用参数字符串会报错,是因为 post 请求参数必须要要进行编码,指定编码格式data = urllib.parse.urlencode(params).encode('utf-8')# 模拟浏览器向服务器发送请求request = urllib.request.Request(url=url, data=data, headers=headers)# 模拟浏览器向服务器发送请求response = urllib.request.urlopen(request)# 获取内容字符串content = response.read().decode('utf-8')# 将字符串转成 jsonobj = json.loads(content)# 输出 jsonprint(obj)

“Python urllib如何使用”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!

--结束END--

本文标题: Python urllib如何使用

本文链接: https://www.lsjlt.com/news/345957.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Python urllib如何使用
    本篇内容介绍了“Python urllib如何使用”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!一、简介urllib 库,它是 P...
    99+
    2023-07-04
  • urllib库如何在python中使用
    今天就跟大家聊聊有关urllib库如何在python中使用,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。1、请求模块:urllib.requestpython2import urll...
    99+
    2023-06-14
  • python urllib库的使用详解
    目录1、请求模块:urllib.request data参数:post请求urlopen()中的参数timeout:设置请求超时时间:响应类型:响应的状态码、响应头:使用代理:url...
    99+
    2024-04-02
  • Python爬虫进阶之如何使用urllib库
    这篇文章主要介绍了Python爬虫进阶之如何使用urllib库,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python的数据类型有哪些python的数据类型:1. 数字类型...
    99+
    2023-06-14
  • 使用urllib
    工具为:python3(windows) 其完整表达式为: urllib.request.urlopen(url, data=None, [timeout, ]*, cafile=None, capath=None, cadefault...
    99+
    2023-01-30
    urllib
  • Python学习:使用urllib模块读
    request 还是requests? 来自Python小白真诚的求助!没办法,只能求助Google了! 原来,Requests模块是一个用于网络访问的模块,网络访问就是利用某些参数发送请求,然后获取我们想要的信息。其实类似的模块...
    99+
    2023-01-31
    模块 Python urllib
  • python中urllib用法
    非常抱歉,由于您没有提供文章标题,我无法为您生成一篇高质量的文章。请您提供文章标题,我将尽快为您生成一篇优质的文章。...
    99+
    2024-05-15
  • 【urllib的使用(上)】
    文章目录 一、urllib的基本用法二、urllib类型和方法类型方法 三、urllib下载下载网页下载图片下载视频 四、请求对象的定制五、编解码1.get请求方式urllib.par...
    99+
    2023-09-15
    python 前端 爬虫
  • Python urllib库的使用指南详解
    目录urlopenRequestUser-Agent添加更多的Header信息添加一个特定的header随机添加/修改User-Agent所谓网页抓取,就是把URL地址中指定的网络资...
    99+
    2024-04-02
  • python之urllib使用代理访问网页
    在写爬虫前,先去xicidaili.com上面随便找两个免费的代码如下# coding: utf-8 __author__ = 'www.py3study.com' import&nb...
    99+
    2023-01-30
    网页 python urllib
  • Python3 使用urllib 发送a
    在爬取某网站的时候,碰到的一个问题, 在进行一个post请求时,postman 里面可以正常请求到数据,但是一模一样放到python里面就不行了,后面通过抓包发现了问题。 直接贴代码: raw = {‘number’: ‘12...
    99+
    2023-01-31
    urllib
  • Python爬虫库urllib的使用教程详解
    目录Python urllib库urllib.request模块urlopen函数Request 类urllib.error模块URLError 示例HTTPError示例...
    99+
    2022-11-21
    Python爬虫库urllib使用 Python urllib使用 Python urllib
  • python3使用urllib抓取用户
    #python34 # -*- coding: utf-8 -*- import http.cookiejar import urllib.error import urllib.parse import urllib.request ...
    99+
    2023-01-31
    用户 urllib
  • Python的urllib模块怎么用
    这篇文章主要介绍了Python的urllib模块怎么用的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python的urllib模块怎么用文章都会有所收获,下面我们一起来看看吧。一、Python urllib 模...
    99+
    2023-06-30
  • Python爬虫之Urllib库的基本使
    # get请求 import urllib.request response = urllib.request.urlopen("http://www.baidu.com") print(response.read().decode('...
    99+
    2023-01-30
    爬虫 Python Urllib
  • python爬虫之请求模块urllib的基本使用
    目录前言urllib的子模块HttpResponse常用方法与属性获取信息urlli.parse的使用(一般用于处理带中文的url)✅爬取baidu官网HTML源代码✅添加请求头信息...
    99+
    2024-04-02
  • Python3 Urllib库的基本使用
    一、什么是Urllib   Urllib库是Python自带的一个http请求库,包含以下几个模块: urllib.request    请求模块 urllib.error        异常处理模块 urllib.parse      ...
    99+
    2023-01-31
    Urllib
  • Python爬虫中urllib库怎么用
    这篇文章给大家分享的是有关Python爬虫中urllib库怎么用的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、说明:urllib库是python内置的一个http请求库,requests库就是基于该库开发出来...
    99+
    2023-06-29
  • Python网络请求模块urllib与requests使用介绍
    目录urlib 介绍Requests 介绍无需参数直接请求单个页面带参数的 GET 请求发送 POST 请求Python 网络请求模块 urllib 、requests Python...
    99+
    2024-04-02
  • python爬虫urllib中的异常模块如何处理
    这篇文章主要介绍“python爬虫urllib中的异常模块如何处理”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“python爬虫urllib中的异常模块如何处理”文章能帮助大家解决问题。urllib...
    99+
    2023-06-30
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作