iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >怎么用Python爬虫公众号文章和链接
  • 271
分享到

怎么用Python爬虫公众号文章和链接

2023-06-16 15:06:19 271人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

这篇文章主要讲解了“怎么用python爬虫公众号文章和链接”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用python爬虫公众号文章和链接”吧!抓包我们需要通过抓包提取公众号文章的请求的

这篇文章主要讲解了“怎么用python爬虫公众号文章和链接”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用python爬虫公众号文章和链接”吧!

抓包

我们需要通过抓包提取公众号文章的请求的 URL,参考之前写过的一篇抓包的文章 Python爬虫APP前的准备,pk哥这次直接抓取 PC  端微信的公众号文章列表信息,更简单。

我以抓包工具 Charles 为例,勾选容许抓取电脑的请求,一般是默认就勾选的。

怎么用Python爬虫公众号文章和链接

为了过滤掉其他无关请求,我们在左下方设置下我们要抓取的域名。

怎么用Python爬虫公众号文章和链接

打开 PC 端微信,打开 「Python知识圈」公众号文章列表后,Charles 就会抓取到大量的请求,找到我们需要的请求,返回的 JSON  信息里包含了文章的标题、摘要、链接等信息,都在 comm_msg_info 下面。

怎么用Python爬虫公众号文章和链接

怎么用Python爬虫公众号文章和链接

这些都是请求链接后的返回,请求链接 url 我们可以在 Overview 中查看。

怎么用Python爬虫公众号文章和链接

通过抓包获取了这么多信息后,我们可以写爬虫爬取所有文章的信息并保存了。

初始化函数

公众号历史文章列表向上滑动,加载更多文章后发现链接中变化的只有 offset 这个参数,我们创建一个初始化函数,加入代理 IP,请求头和信息,请求头包含了  User-Agent、Cookie、Referer。

怎么用Python爬虫公众号文章和链接

这些信息都在抓包工具可以看到。

怎么用Python爬虫公众号文章和链接

请求数据

通过抓包分析出来了请求链接,我们就可以用 requests 库来请求了,用返回码是否为 200 做一个判断,200  的话说明返回信息正常,我们再构建一个函数 parse_data() 来解析提取我们需要的返回信息。

def request_data(self):     try:         response = requests.get(self.base_url.fORMat(self.offset), headers=self.headers, proxies=self.proxy)         print(self.base_url.format(self.offset))         if 200 == response.status_code:            self.parse_data(response.text)     except Exception as e:         print(e)         time.sleep(2)         pass

提取数据

通过分析返回的 json 数据,我们可以看到,我们需要的数据都在 app_msg_ext_info 下面。

怎么用Python爬虫公众号文章和链接

我们用 json.loads 解析返回的 Json 信息,把我们需要的列保存在 csv  文件中,有标题、摘要、文章链接三列信息,其他信息也可以自己加。

def parse_data(self, responseData):             all_datas = json.loads(responseData)             if 0 == all_datas['ret'] and all_datas['msg_count']>0:                 summy_datas = all_datas['general_msg_list']                 datas = json.loads(summy_datas)['list']                 a = []                 for data in datas:                     try:                         title = data['app_msg_ext_info']['title']                         title_child = data['app_msg_ext_info']['digest']                         article_url = data['app_msg_ext_info']['content_url']                         info = {}                         info['标题'] = title                         info['小标题'] = title_child                         info['文章链接'] = article_url                         a.append(info)                     except Exception as e:                         print(e)                         continue                  print('正在写入文件')                 with open('Python公众号文章合集1.csv', 'a', newline='', encoding='utf-8') as f:                     fieldnames = ['标题', '小标题', '文章链接']  # 控制列的顺序                     writer = csv.DictWriter(f, fieldnames=fieldnames)                     writer.writeheader()                     writer.writerows(a)                     print("写入成功")                  print('----------------------------------------')                 time.sleep(int(format(random.randint(2, 5))))                 self.offset = self.offset+10                 self.request_data()             else:                 print('抓取数据完毕!')

这样,爬取的结果就会以 csv 格式保存起来。

运行代码时,可能会遇到 SSLError 的报错,最快的解决办法就是 base_url 前面的 https 去掉 s 再运行。

保存markdown格式的链接

经常写文章的人应该都知道,一般写文字都会用 markdown 的格式来写文章,这样的话,不管放在哪个平台,文章的格式都不会变化。

在 Markdown 格式里,用 [文章标题](文章url链接) 表示,所以我们保存信息时再加一列信息就行,标题和文章链接都获取了,Markdown  格式的 url 也就简单了。

md_url = '[{}]'.format(title) + '({})'.format(article_url)

爬取完成后,效果如下。

怎么用Python爬虫公众号文章和链接

我们把 md链接这一列全部粘贴到 Markdown 格式的笔记里就行了,大部分的笔记软件都知道新建 Markdown 格式的文件的。

怎么用Python爬虫公众号文章和链接

感谢各位的阅读,以上就是“怎么用Python爬虫公众号文章和链接”的内容了,经过本文的学习后,相信大家对怎么用Python爬虫公众号文章和链接这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是编程网,小编将为大家推送更多相关知识点的文章,欢迎关注!

--结束END--

本文标题: 怎么用Python爬虫公众号文章和链接

本文链接: https://www.lsjlt.com/news/284168.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 怎么用Python爬虫公众号文章和链接
    这篇文章主要讲解了“怎么用Python爬虫公众号文章和链接”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么用Python爬虫公众号文章和链接”吧!抓包我们需要通过抓包提取公众号文章的请求的...
    99+
    2023-06-16
  • python如何实现微信公众号文章爬取
    小编给大家分享一下python如何实现微信公众号文章爬取,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!具体步骤如下:一、安装代理服务器目前使用的是Anyproxy...
    99+
    2023-06-19
  • python爬取微信公众号文章图片并转为PDF
    遇到那种有很多图的微信公众号文章咋办?一个一个存很麻烦,应朋友的要求自己写了个爬虫。2.0版本完成了!完善了生成pdf的功能,可根据图片比例自动调节大小,防止超出页面范围,增加了序号...
    99+
    2024-04-02
  • 怎么用python自动获取微信公众号最新文章
    本篇内容介绍了“怎么用python自动获取微信公众号最新文章”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!微信公众号获取思路常用的微信公众号...
    99+
    2023-07-02
  • 使用Python获取公众号下所有的文章
    目录导出公众号所有文章开发者ID与开发者密码保存数据到CSV文件导出公众号所有文章 随着互联网的不断发展,网络上兴起了很多的自媒体平台。不用我说,相信大家也能知道当下非常流行的平台都...
    99+
    2024-04-02
  • python如何使用pywinauto驱动微信客户端实现公众号爬虫
    这篇文章主要介绍了python如何使用pywinauto驱动微信客户端实现公众号爬虫,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。pywinauto简介pywinauto是一...
    99+
    2023-06-15
  • Python怎么实现快速保存微信公众号文章中的图片
    本文小编为大家详细介绍“Python怎么实现快速保存微信公众号文章中的图片”,内容详细,步骤清晰,细节处理妥当,希望这篇“Python怎么实现快速保存微信公众号文章中的图片”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知...
    99+
    2023-07-02
  • 怎么用python爬虫抓取网页文本
    使用Python爬虫抓取网页文本可以使用第三方库requests和beautifulsoup。首先,安装requests和beaut...
    99+
    2023-10-18
    python
  • 怎么用Python爬取7日热门的文章
    怎么用Python爬取7日热门的文章,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。前言相信大家都很喜欢看那种非常热门并且很好的文章,这种文章往往耐人寻味,有理有据,语句畅通...
    99+
    2023-06-02
  • 怎么使用python代码实现扫码关注公众号登录
    这篇文章主要介绍“怎么使用python代码实现扫码关注公众号登录”,在日常操作中,相信很多人在怎么使用python代码实现扫码关注公众号登录问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么使用python代...
    99+
    2023-06-25
  • 怎么检查文件是否有Python的符号链接
    这篇文章主要讲解了“怎么检查文件是否有Python的符号链接”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“怎么检查文件是否有Python的符号链接”吧!1、对于python 3.4及更高版本...
    99+
    2023-06-25
  • python爬虫时提取数据后跟踪到下一个链接报错怎么办
    小编给大家分享一下python爬虫时提取数据后跟踪到下一个链接报错怎么办,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!解决方法:不要将“NoneType”连接到 ...
    99+
    2023-06-20
  • 怎么使用python爬取网站所有链接内容
    要使用Python爬取网站的所有链接内容,可以使用Python的requests库发送HTTP请求和BeautifulSoup库解析...
    99+
    2023-08-23
    python
  • 怎么用Python爬虫搞定发送中文HTTP请求头
    本篇内容主要讲解“怎么用Python爬虫搞定发送中文HTTP请求头”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用Python爬虫搞定发送中文HTTP请求头”吧!有时需要将HTTP请求头的值...
    99+
    2023-06-15
  • python爬虫怎么使用内置的scrapy内置下载文件
    这篇文章主要介绍python爬虫怎么使用内置的scrapy内置下载文件,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!python是什么意思Python是一种跨平台的、具有解释性、编译性、互动性和面向对象的脚本语言,其...
    99+
    2023-06-14
  • Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据
    这篇文章主要介绍了Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python爬虫之怎么使用BeautifulSoup和Reque...
    99+
    2023-07-05
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作