iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >如何使用Python抓取和优化所有网站图像
  • 403
分享到

如何使用Python抓取和优化所有网站图像

Python抓取和优化所有网站图像Python抓取网站图像 2023-02-24 11:02:46 403人浏览 独家记忆

Python 官方文档:入门教程 => 点击学习

摘要

目录要求和假设安装模块导入 python 模块启动网络爬网规范化和修剪爬网数据创建输出文件夹处理图像的网址流程映像优化图像结论我发布了一个通过FTP自动优化新图像的教程。这次我们将抓

我发布了一个通过FTP自动优化新图像的教程。这次我们将抓取整个网站,并在本地优化我们遇到的图像,按URL组织。

请注意,这个简短但中级的脚本不适用于大型站点。首先,所有图像都转储到一个文件夹中。为每个页面创建一个新文件夹并不困难,但即便如此,您也可能有数量无法管理的文件夹。未优化的图像仍然是未通过 WEB 核心指标的罪魁祸首。让我们开始!

要求和假设

  • 已安装 Python 3 并理解基本的 Python 语法

  • 访问linux安装(我推荐ubuntu)或宝塔

安装模块

在我们开始之前,请记住注意您在此处复制的任何内容的缩进,因为有时代码片段无法完美复制。下面的所有模块都应该在核心Python 3中。我发现我需要将 PIL 更新到最新版本 8.2,您可以通过终端中的以下命令执行此操作(如果使用 Google Colab,请在开头加上感叹号):

另外,我们需要安装 Elias Dabbas的 advertools 模块

pip3 install PIL --upgrade
pip3 install advertools
  • advertools:使用刮擦处理抓取
  • pandas:帮助规范化爬网数据
  • os:用于制作映像目录
  • requests:用于下载图像
  • PIL:处理图像压缩
  • shutil:处理在本地保存图像

导入 Python 模块

让我们首先导入上面描述的这个脚本所需的模块。

import advertools as adv
import pandas as pd
import os 
import requests # to get image from the web
import shutil # to save it locally
from PIL import Image
import PIL

启动网络爬网

我们需要做的第一件事是定义网络爬虫的起始 URL。99%的时间这应该是你的主页。然后我们在advertools中运行adv.crawl()函数,并将输出保存为crawl.jl,然后将其加载到crawlme数据帧中。此过程可能需要几分钟,具体取决于您的网站有多大。我不建议在页面或图像超过数万个的非常大的网站上使用此脚本。一般来说,爬虫非常快,只需几秒钟即可处理这个博客。另外,请注意,某些使用 Cloudflare 或其他防火墙的站点最终可能会在某个时候被阻止。

site_url = 'https://importsem.com'

adv.crawl(site_url, 'crawl.jl', follow_links=True)

crawlme = pd.read_JSON('crawl.jl', lines=True)

规范化和修剪爬网数据

使用我们的数据帧,我们可以开始规范化和修剪数据,使其仅满足我们的需要。通常有很多 nan 和空白值,因此我们删除这些行。

crawlme.dropna(how='all')
crawlme.drop(crawlme[crawlme['canonical'] == 'nan'].index, inplace = True)
crawlme.drop(crawlme[crawlme['img_src'] == ''].index, inplace = True)
crawlme.reset_index(inplace = True)

爬网数据帧包含大量爬网数据。出于我们的目的,我们只需要规范列和img_src列。我们选择这些列并将它们转换为字典对象。

url_images = crawlme[['canonical','img_src']].to_dict()

接下来,我们设置一个计数器来帮助循环访问图像键和一个名为 dupes 的列表变量来存储我们已经处理过的图像的 URL,这样我们就不会再次处理它们。

x = 0

dupes = []

创建输出文件夹

现在我们希望创建两个文件夹。一个用于存储原始文件,以防您需要还原它们,另一个文件夹用于存储优化的图像。如果这些文件夹已经存在,它只是将路径发送到变量中。

try:
  path = os.getcwd() + "/images/"
  optpath = os.getcwd() + "/images_opt/"
  os.mkdir(path)
  os.mkdir(optpath)
except:
  path = os.getcwd() + "/images/"
  optpath = os.getcwd() + "/images_opt/"

处理图像的网址

现在是时候处理 URL 了。我们遍历规范密钥中的 URL。然后我们使用计数器变量将其与img_src键匹配。每个 URL 的图像用“@@”分隔。因此,我们将img_src字符串拆分为“@@”,这变成了一个列表。

for key in url_images['canonical'].items():

print(key[1])

images = url_images['img_src'][x].split('@@')

在处理 URL 的img_src列表之前,我们希望将主页的图像 URL 预加载到重复列表中。

if x == 0:

dupes = images

流程映像

现在,只要每个图像未在重复列表中列出,我们就会对其进行处理。这确保了我们不会一遍又一遍地处理相同的图像。常见的情况是设计框架图像和徽标,可以在每个页面上找到。这些将在找到它们的第一个 URL 上处理,然后不会再次处理。我们通过反斜杠拆分字符串来获取图像文件名,然后选择创建的最后一个列表项,这将是文件名。然后使用请求模块下载并解码文件。

for i in images:

if i not in dupes or x == 0:

filename = i.split("/")[-1]

r = requests.get(i, stream = True)

r.raw.decode_content = True

如果图像下载成功,我们将文件保存到我们之前设置的文件夹中。

if r.status_code == 200:

with open(path + filename,'wb') as f:

shutil.copyfileobj(r.raw, f)

优化图像

将图像下载到原始图像文件夹中后,我们在本地打开它并使用PIL模块对其进行处理,并将优化的输出保存在我们之前设置的优化图像文件夹中。使用质量参数。65 我通常很安全,但如果你看到图像退化,你可以把它放低或需要提高它。如果需要,您还可以选择调整图像大小。只需使用 PIL 的 Image.resize() 函数即可。文档在这里。

picture = Image.open(path + filename)

picture.save(optpath + filename, optimize=True, quality=65)

print('Image successfully downloaded and optimized: ',filename)

else:

print('Download Failed')

处理完 URL 的所有图像后,我们将处理的任何 URL 与重复列表中包含的内容进行比较。如果某个网址不在重复列表中,则会添加该网址,因此如果在另一个网址上找到该网址,我们不会再次处理该网址。

if x != 0:

[dupes.append(z) for z in images if z not in dupes]

最后,我们输出计数器进行进程跟踪,并将计数器增加 1。然后,第一个 URL 循环再次启动,并处理下一个 URL

print(x)

x += 1

示例输出

结论

有了这个,您现在可以非常快速地抓取和优化任何网站的文件。如果你有一个非常大的网站,你至少拥有构建更健壮的东西所需的框架。

到此这篇关于如何使用Python 抓取和优化所有网站图像的文章就介绍到这了,更多相关Python 抓取和优化所有网站图像内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

--结束END--

本文标题: 如何使用Python抓取和优化所有网站图像

本文链接: https://www.lsjlt.com/news/197410.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 如何使用Python抓取和优化所有网站图像
    目录要求和假设安装模块导入 Python 模块启动网络爬网规范化和修剪爬网数据创建输出文件夹处理图像的网址流程映像优化图像结论我发布了一个通过FTP自动优化新图像的教程。这次我们将抓...
    99+
    2023-02-24
    Python 抓取和优化所有网站图像 Python 抓取网站图像
  • 怎么使用Python抓取和优化所有网站图像
    本篇内容介绍了“怎么使用Python抓取和优化所有网站图像”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!要求和假设已安装 Python 3 ...
    99+
    2023-07-05
  • 如何用 Python 抓取 javascript 网站?
    问题内容 我正在尝试抓取一个网站。我尝试过使用两种方法,但两种方法都没有为我提供我正在寻找的完整网站源代码。我正在尝试从下面提供的网站 url 中抓取新闻标题。 网址:“https:/...
    99+
    2024-02-10
    webdriver
  • 使用Python和Scrapy实现抓取网站数据
    目录一、安装Scrapy二、创建一个Scrapy项目三、定义一个Scrapy爬虫四、运行Scrapy爬虫五、保存抓取的数据六、遵守网站的robots.txt七、设置下载延迟八、使用中...
    99+
    2023-05-12
    Python Scrapy抓取网站数据 Python Scrapy抓取数据 Python Scrapy
  • 如何利用robots文件做好网站优化让蜘蛛更好的抓取网站
    如何利用robots文件做好网站优化让蜘蛛更好的抓取网站,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。  robots文件存在于网站根目录,是用来告诉百度蜘蛛那...
    99+
    2023-06-10
  • 如何使用Python爬虫爬取网站图片
    这篇文章主要介绍了如何使用Python爬虫爬取网站图片,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。此次python3主要用requests,解析图片网址主要用beautif...
    99+
    2023-06-22
  • 如何使用Puppeteer进行新闻网站数据抓取和聚合
    导语 Puppeteer是一个基于Node.js的库,它提供了一个高级的API来控制Chrome或Chromium浏览器。通过Puppeteer,我们可以实现各种自动化任务,如网页截图、PDF生成、表单填写、网络监控等。本文将介绍如何使用...
    99+
    2023-08-30
    Puppeteer 网络爬虫 数据抓取 爬虫代理 亿牛云
  • 怎么使用python爬取网站所有链接内容
    要使用Python爬取网站的所有链接内容,可以使用Python的requests库发送HTTP请求和BeautifulSoup库解析...
    99+
    2023-08-23
    python
  • 如何使用Python自动下载网站所有文件
    这篇文章给大家分享的是有关如何使用Python自动下载网站所有文件的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。假如一个网站,里面有很多链接,有指向文件的,有指向新链接的,新的链接点击进去后,仍然是有指向文件的,...
    99+
    2023-06-14
  • 如何使用Python爬虫实现抓取电影网站信息并入库
    这篇文章主要介绍如何使用Python爬虫实现抓取电影网站信息并入库,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一.环境搭建1.下载安装包访问 Python官网下载地址:https://www.python.org/...
    99+
    2023-06-29
  • 如何使用 PHP 优化网站性能
    通过优化数据库查询、压缩页面和资源、启用页面缓存、优化 php 代码和加载资源,可以有效提升 php 网站性能。例如,一家电子商务网站采用页面缓存、数据库索引优化和 gzip 压缩,网站...
    99+
    2024-05-02
    php 网站性能 css redis
  • 如何使用 PHP 优化网站性能?
    如何优化 php 网站性能,提升用户体验?优化代码:避免使用全局变量,使用缓存,将重复代码提炼为函数,减少循环。优化数据库查询:创建索引,使用查询缓存,限制查询结果,使用分页。优化文件操...
    99+
    2024-04-19
    php 网站性能 作用域
  • 如何用python抓取网站教程并制作成PDF文档
    这篇文章主要介绍“如何用python抓取网站教程并制作成PDF文档”,在日常操作中,相信很多人在如何用python抓取网站教程并制作成PDF文档问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”如何用python...
    99+
    2023-06-04
  • 如何使用puppeteer爬取网站并抓出404无效链接
    这篇文章主要介绍如何使用puppeteer爬取网站并抓出404无效链接,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!检查网页无效链接前言自动化技术可以帮助我们做自动化测试,同样也可以...
    99+
    2024-04-02
  • 如何使用python爬取整个网站
    要使用Python爬取整个网站,可以使用以下步骤:1. 导入所需的库,例如`requests`和`BeautifulSoup`。``...
    99+
    2023-08-14
    python
  • 如何使用Flex ComboBox控件优化网站
    这篇文章主要为大家展示了“如何使用Flex ComboBox控件优化网站”,内容简而易懂,条理清晰,希望能够帮助大家解决疑惑,下面让小编带领大家一起研究并学习一下“如何使用Flex ComboBox控件优化网站”这篇文章吧。Flex Com...
    99+
    2023-06-17
  • 如何用Python网络爬虫抓取百度贴吧评论区图片和视频
    如何用Python网络爬虫抓取百度贴吧评论区图片和视频,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。百度贴吧是全球最大的中文交流平台,你是否跟我一样,有时候看到评论区的图片...
    99+
    2023-06-01
  • 如何使用Python抓取今日头条街拍图片数据
    这篇文章主要介绍了如何使用Python抓取今日头条街拍图片数据,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。(1)抓取今日头条街拍图片(2)分析今日头条街拍图片结构keywo...
    99+
    2023-06-22
  • 如何使用索引优化你的网站SEO?
    SEO(搜索引擎优化)是网站推广中的一项重要工作,它可以帮助网站在搜索引擎中获得更好的排名,从而获得更多的流量和曝光度。在SEO中,索引是一个非常重要的概念,本文将介绍如何使用索引优化你的网站SEO。 一、什么是索引 在搜索引擎中,索引是指...
    99+
    2023-06-09
    异步编程 自然语言处理 索引
  • 详解如何使用OpenCV和像素处理图像灰度化
    目录数字图像处理图像读入和通道结构像素级灰度化处理不同算法之间的效果比较图像灰度化的输出和显示数字图像处理 在数字图像处理中,我们经常需要将彩色图像转换为灰度图像,以便应用各种算法。...
    99+
    2023-05-17
    OpenCV 像素图像灰度化 OpenCV 图像处理
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作