广告
返回顶部
首页 > 资讯 > 后端开发 > Python >怎么利用python多线程爬取天气网站图片并保存
  • 940
分享到

怎么利用python多线程爬取天气网站图片并保存

2023-06-25 14:06:13 940人浏览 泡泡鱼

Python 官方文档:入门教程 => 点击学习

摘要

这篇文章主要介绍了怎么利用python多线程爬取天气网站图片并保存,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。1.1 题目指定一个网站,爬取这个网站中的所有的所有图片,例如

这篇文章主要介绍了怎么利用python多线程爬取天气网站图片并保存,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

    1.1 题目

    指定一个网站,爬取这个网站中的所有的所有图片,例如中国气象网(www.weather.com.cn),分别使用单线程和多线程的方式爬取。(限定爬取图片数量为学号后3位)

    输出信息: 将下载的Url信息在控制台输出,并将下载的图片存储在images子文件中,并给出截图。

    1.2 思路

    1.2.1 发送请求

    构造请求头

    import requests,reimport urllibheaders = {    'Connection': 'keep-alive',    'Cache-Control': 'max-age=0',    'Upgrade-Insecure-Requests': '1',    'User-Agent': 'Mozilla/5.0 (windows NT 10.0; Win64; x64) AppleWEBKit/537.36 (Khtml, like Gecko) Chrome/94.0.4606.61 Safari/537.36',    'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',    'Accept-Language': 'zh-CN,zh;q=0.9',}url = "Http://www.weather.com.cn/"request = urllib.request.Request(url, headers=headers)

    发送请求

    request = urllib.request.Request(url, headers=headers)r = urllib.request.urlopen(request)

    1.2.2 解析网页

    页面解析,并且替换回车,方便后续进行正则匹配图片。

    html = r.read().decode().replace('\n','')

    怎么利用python多线程爬取天气网站图片并保存

    1.2.3 获取结点

    使用正则匹配,先获取所有的a标签,然后爬取a标签下面的所有图片

    urlList = re.findall('<a href="(.*?)" ',html,re.S)

    获取所有的图片

    allImageList = []for k in urlList:    try:        request = urllib.request.Request(k, headers=headers)        r = urllib.request.urlopen(request)        html = r.read().decode().replace('\n','')        imgList = re.findall(r'<img.*?src="(.*?)"', html, re.S)        allImageList+=imgList    except Exception as e:        pass

    这里的请求其实也是要用多线程爬取的,所有后续会补上!

    1.2.4 数据保存 (单线程)

    for i, img in enumerate(allImageList[:102]):    print(f"正在保存第{i + 1}张图片 路径:{img}")    resp = requests.get(img)    with open(f'./image/{img.split("/")[-1]}', 'wb') as f:  # 保存到这个image路径下        f.write(resp.content)

    怎么利用python多线程爬取天气网站图片并保存

    1.2.4 数据保存 (多线程)

    引入多进程模块

    import threading# 多线程def download_imgs(imgList,limit):    threads = []    T = [        threading.Thread(target = download, args=(url,i))        for i, url in enumerate(imgList[:limit + 1])    ]    for t in T:        t.start()        threads.append(t)    return threads

    编写下载函数

    def download(img_url,name):    resp = requests.get(img_url)    try:        resp = requests.get(img_url)        with open(f'./images/{name}.jpg', 'wb') as f:                f.write(resp.content)    except Exception as e:        print(f"下载失败: {name} {img_url} -> {e}")    else:        print(f"下载完成: {name} {img_url}")

    就很随机

    怎么利用python多线程爬取天气网站图片并保存

    感谢你能够认真阅读完这篇文章,希望小编分享的“怎么利用Python多线程爬取天气网站图片并保存”这篇文章对大家有帮助,同时也希望大家多多支持编程网,关注编程网Python频道,更多相关知识等着你来学习!

    --结束END--

    本文标题: 怎么利用python多线程爬取天气网站图片并保存

    本文链接: https://www.lsjlt.com/news/305190.html(转载时请注明来源链接)

    有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

    本篇文章演示代码以及资料文档资料下载

    下载Word文档到电脑,方便收藏和打印~

    下载Word文档
    猜你喜欢
    • 怎么利用python多线程爬取天气网站图片并保存
      这篇文章主要介绍了怎么利用python多线程爬取天气网站图片并保存,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。1.1 题目指定一个网站,爬取这个网站中的所有的所有图片,例如...
      99+
      2023-06-25
    • 如何利用python多线程爬取天气网站图片并保存
      目录1.1 题目1.2 思路 1.2.1 发送请求1.2.2 解析网页 1.2.3 获取结点 1.2.4 数据保存 (单线程) 1.2.4 数据保存 (多线程)总结1.1 题目 指定...
      99+
      2022-11-12
    • 使用Python怎么爬取网站图片并保存
      这期内容当中小编将会给大家带来有关使用Python怎么爬取网站图片并保存,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。第一步,导入模块import requestsfrom bs4&n...
      99+
      2023-06-06
    • 怎么在python中利用多线程爬取网站壁纸
      本篇文章给大家分享的是有关怎么在python中利用多线程爬取网站壁纸,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。Python主要用来做什么Python主要应用于:1、Web开...
      99+
      2023-06-06
    • python怎么利用多线程+队列技术爬取中介网互联网网站排行榜
      本篇内容介绍了“python怎么利用多线程+队列技术爬取中介网互联网网站排行榜”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!目标站点分析本次...
      99+
      2023-06-30
    软考高级职称资格查询
    编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
    • 官方手机版

    • 微信公众号

    • 商务合作