iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >Pyspider框架中Python如何爬取V2EX网站帖子
  • 245
分享到

Pyspider框架中Python如何爬取V2EX网站帖子

2023-06-17 05:06:12 245人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

Pyspider框架中python如何爬取V2EX网站帖子,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。背景:PySpider:一个国人编写的强大的网络爬虫系统并带有强大的

Pyspider框架python如何爬取V2EX网站帖子,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。

背景:

PySpider:一个国人编写的强大的网络爬虫系统并带有强大的WEBUI。采用Python语言编写,分布式架构,支持多种数据库后端,强大的WebUI支持脚本编辑器,任务监视器,项目管理器以及结果查看器。

前提:

你已经安装好了Pyspider 和 MySQL-python(保存数据)

如果你还没安装的话,请看看我的前一篇文章,防止你也走弯路。

  • Pyspider 框架学习时走过的一些坑

  • Http 599: SSL certificate problem: unable to get local issuer  certificate错误

我所遇到的一些错误:

Pyspider框架中Python如何爬取V2EX网站帖子

首先,本爬虫目标:使用 Pyspider 框架爬取 V2EX 网站的帖子中的问题和内容,然后将爬取的数据保存在本地。

V2EX 中大部分的帖子查看是不需要登录的,当然也有些帖子是需要登陆后才能够查看的。(因为后来爬取的时候发现一直 error  ,查看具体原因后才知道是需要登录的才可以查看那些帖子的)所以我觉得没必要用到 Cookie,当然如果你非得要登录,那也很简单,简单地方法就是添加你登录后的  cookie 了。

我们在 https://www.v2ex.com/  扫了一遍,发现并没有一个列表能包含所有的帖子,只能退而求其次,通过抓取分类下的所有的标签列表页,来遍历所有的帖子:  https://www.v2ex.com/?tab=tech 然后是 https://www.v2ex.com/Go/progr... ***每个帖子的详情地址是  (举例): https://www.v2ex.com/t/314683...

创建一个项目

在 pyspider 的 dashboard 的右下角,点击 “Create” 按钮

Pyspider框架中Python如何爬取V2EX网站帖子

替换 on_start 函数的 self.crawl 的 URL:

@every(minutes=24 * 60)     def on_start(self):         self.crawl('https://www.v2ex.com/', callback=self.index_page, validate_cert=False)
  • self.crawl 告诉 pyspider 抓取指定页面,然后使用 callback 函数对结果进行解析。

  • @every) 修饰器,表示 on_start 每天会执行一次,这样就能抓到***的帖子了。

  • validate_cert=False 一定要这样,否则会报 HTTP 599: SSL certificate problem: unable to  get local issuer certificate错误

首页:

点击绿色的 run 执行,你会看到 follows 上面有一个红色的 1,切换到 follows 面板,点击绿色的播放按钮:

Pyspider框架中Python如何爬取V2EX网站帖子

 Pyspider框架中Python如何爬取V2EX网站帖子

第二张截图一开始是出现这个问题了,解决办法看前面写的文章,后来问题就不再会出现了。

Tab 列表页 :

Pyspider框架中Python如何爬取V2EX网站帖子

在 tab 列表页 中,我们需要提取出所有的主题列表页 的 URL。你可能已经发现了,sample handler 已经提取了非常多大的 URL

代码:

@config(age=10 * 24 * 60 * 60)     def index_page(self, response):         for each in response.doc('a[href^="https://www.v2ex.com/?tab="]').items():             self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)
  • 由于帖子列表页和 tab列表页长的并不一样,在这里新建了一个 callback 为 self.tab_page

  • @config(age=10 24 60 * 60) 在这表示我们认为 10 天内页面有效,不会再次进行更新抓取

Go列表页 :

Pyspider框架中Python如何爬取V2EX网站帖子

代码:

@config(age=10 * 24 * 60 * 60)  def tab_page(self, response):  for each in response.doc('a[href^="https://www.v2ex.com/go/"]').items():  self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)

帖子详情页(T):

Pyspider框架中Python如何爬取V2EX网站帖子

你可以看到结果里面出现了一些reply的东西,对于这些我们是可以不需要的,我们可以去掉。

同时我们还需要让他自己实现自动翻页功能。

代码:

@config(age=10 * 24 * 60 * 60)     def board_page(self, response):         for each in response.doc('a[href^="https://www.v2ex.com/t/"]').items():             url = each.attr.href             if url.find('#reply')>0:                 url = url[0:url.find('#')]             self.crawl(url, callback=self.detail_page, validate_cert=False)         for each in response.doc('a.page_nORMal').items():             self.crawl(each.attr.href, callback=self.board_page, validate_cert=False) #实现自动翻页功能

去掉后的运行截图:

Pyspider框架中Python如何爬取V2EX网站帖子

实现自动翻页后的截图:

Pyspider框架中Python如何爬取V2EX网站帖子

此时我们已经可以匹配了所有的帖子的 url 了。

点击每个帖子后面的按钮就可以查看帖子具体详情了。

Pyspider框架中Python如何爬取V2EX网站帖子

代码:

@config(priority=2)     def detail_page(self, response):         title = response.doc('h2').text()         content = response.doc('div.topic_content').html().replace('"', '\\"')         self.add_question(title, content)  #插入数据库         return {             "url": response.url,             "title": title,             "content": content,         }

插入数据库的话,需要我们在之前定义一个add_question函数。

#连接数据库 def __init__(self):         self.db = Mysqldb.connect('localhost', 'root', 'root', 'wenda', charset='utf8')      def add_question(self, title, content):         try:             cursor = self.db.cursor()             sql = 'insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)' % (title, content, random.randint(1, 10) , 'now()');   #插入数据库的SQL语句             print sql             cursor.execute(sql)             print cursor.lastrowid             self.db.commit()         except Exception, e:             print e             self.db.rollback()

查看爬虫运行结果:

Pyspider框架中Python如何爬取V2EX网站帖子

先debug下,再调成running。pyspider框架在windows下的bug

设置跑的速度,建议不要跑的太快,否则很容易被发现是爬虫的,人家就会把你的IP给封掉的

查看运行工作

查看爬取下来的内容

Pyspider框架中Python如何爬取V2EX网站帖子

Pyspider框架中Python如何爬取V2EX网站帖子

然后再本地数据库GUI软件上查询下就可以看到数据已经保存到本地了。

自己需要用的话就可以导入出来了。

在开头我就告诉大家爬虫的代码了,如果详细的看看那个project,你就会找到我上传的爬取数据了。(仅供学习使用,切勿商用!)

当然你还会看到其他的爬虫代码的了,如果你觉得不错可以给个  Star,或者你也感兴趣的话,你可以fork我的项目,和我一起学习,这个项目长期更新下去。

代码:

# created by 10412 # !/usr/bin/env python # -*- encoding: utf-8 -*- # Created on 2016-10-20 20:43:00 # Project: V2EX  from pyspider.libs.base_handler import *  import re import random import mysqldb  class Handler(BaseHandler):     crawl_config = {     }      def __init__(self):         self.db = MySQLdb.connect('localhost', 'root', 'root', 'wenda', charset='utf8')      def add_question(self, title, content):         try:             cursor = self.db.cursor()             sql = 'insert into question(title, content, user_id, created_date, comment_count) values ("%s","%s",%d, %s, 0)' % (title, content, random.randint(1, 10) , 'now()');             print sql             cursor.execute(sql)             print cursor.lastrowid             self.db.commit()         except Exception, e:             print e             self.db.rollback()       @every(minutes=24 * 60)     def on_start(self):         self.crawl('https://www.v2ex.com/', callback=self.index_page, validate_cert=False)      @config(age=10 * 24 * 60 * 60)     def index_page(self, response):         for each in response.doc('a[href^="https://www.v2ex.com/?tab="]').items():             self.crawl(each.attr.href, callback=self.tab_page, validate_cert=False)       @config(age=10 * 24 * 60 * 60)     def tab_page(self, response):         for each in response.doc('a[href^="https://www.v2ex.com/go/"]').items():             self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)       @config(age=10 * 24 * 60 * 60)     def board_page(self, response):         for each in response.doc('a[href^="https://www.v2ex.com/t/"]').items():             url = each.attr.href             if url.find('#reply')>0:                 url = url[0:url.find('#')]             self.crawl(url, callback=self.detail_page, validate_cert=False)         for each in response.doc('a.page_normal').items():             self.crawl(each.attr.href, callback=self.board_page, validate_cert=False)       @config(priority=2)     def detail_page(self, response):         title = response.doc('h2').text()         content = response.doc('div.topic_content').html().replace('"', '\\"')         self.add_question(title, content)  #插入数据库         return {             "url": response.url,             "title": title,             "content": content,         }

关于Pyspider框架中Python如何爬取V2EX网站帖子问题的解答就分享到这里了,希望以上内容可以对大家有一定的帮助,如果你还有很多疑惑没有解开,可以关注编程网Python频道了解更多相关知识。

--结束END--

本文标题: Pyspider框架中Python如何爬取V2EX网站帖子

本文链接: https://www.lsjlt.com/news/287181.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Pyspider框架中Python如何爬取V2EX网站帖子
    Pyspider框架中Python如何爬取V2EX网站帖子,针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。背景:PySpider:一个国人编写的强大的网络爬虫系统并带有强大的...
    99+
    2023-06-17
  • python如何爬取壁纸网站
    这篇文章主要介绍python如何爬取壁纸网站,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!本次爬虫用到的网址是:http://www.netbian.com/index.htm: 彼岸桌面.里面有很多的好看壁纸,而且...
    99+
    2023-06-14
  • 如何用Python爬虫爬取美剧网站
    如何用Python爬虫爬取美剧网站,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。爬虫爬取美剧网站!【前言】一直有爱看美剧的习惯,一方面锻炼一下英语听力,一方面打...
    99+
    2023-06-02
  • 如何利用Python爬虫爬取网站音乐
    小编给大家分享一下如何利用Python爬虫爬取网站音乐,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!具体实现引入发送网络请求的第三方库import re...
    99+
    2023-06-15
  • 如何使用Python爬虫爬取网站图片
    这篇文章主要介绍了如何使用Python爬虫爬取网站图片,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。此次python3主要用requests,解析图片网址主要用beautif...
    99+
    2023-06-22
  • python如何爬取新闻门户网站
    这篇文章主要介绍了python如何爬取新闻门户网站,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python主要应用领域有哪些1、云计算,典型应用OpenStack。2、WE...
    99+
    2023-06-14
  • 如何使用python爬取整个网站
    要使用Python爬取整个网站,可以使用以下步骤:1. 导入所需的库,例如`requests`和`BeautifulSoup`。``...
    99+
    2023-08-14
    python
  • Python中如何爬取中医药网站中药的信息
    这篇文章给大家介绍Python中如何爬取中医药网站中药的信息,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。现在我们90后很多人都步入了养生状态,开始泡枸杞红枣了,哈哈,经常在朋友圈里面看到,这是不是对自己的一种调侃呢,...
    99+
    2023-06-02
  • python如何爬取影视网站下载链接
    这篇文章主要介绍python如何爬取影视网站下载链接,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!运行效果导入模块import requests,refrom requests.cookies&n...
    99+
    2023-06-15
  • Python如何通过Scrapy框架实现爬取CSDN全站热榜标题热词
    小编给大家分享一下Python如何通过Scrapy框架实现爬取CSDN全站热榜标题热词,希望大家阅读完这篇文章之后都有所收获,下面让我们一起去探讨吧!环境部署scrapy安装pip install scrapy ...
    99+
    2023-06-25
  • python中如何爬取汽车之家网站上的图片
    这篇文章主要介绍了python中如何爬取汽车之家网站上的图片,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。python的数据类型有哪些python的数据类型:1. 数字类型,...
    99+
    2023-06-14
  • python如何爬取某网站原图作为壁纸
    这篇文章主要介绍python如何爬取某网站原图作为壁纸,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!完整代码# -*- coding: utf-8 -*-""...
    99+
    2023-06-15
  • python爬虫中如何爬取网页新闻内容
    小编给大家分享一下python爬虫中如何爬取网页新闻内容,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python可以做什么Python是一种编程语言,内置了许多...
    99+
    2023-06-14
  • Python爬虫如何爬取网页中所有的url
    这篇文章主要介绍Python爬虫如何爬取网页中所有的url,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!python可以做什么Python是一种编程语言,内置了许多有效的工具,Python几乎无所不能,该语言通俗易懂...
    99+
    2023-06-14
  • Python如何通过Scrapy框架实现爬取百度新冠疫情数据
    这篇文章主要介绍了Python如何通过Scrapy框架实现爬取百度新冠疫情数据,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。环境部署主要简单推荐一下插件推荐这里先推荐一个Go...
    99+
    2023-06-25
  • 如何使用Python爬取人人都是产品经理网站文章
    这篇文章给大家分享的是有关如何使用Python爬取人人都是产品经理网站文章的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。1.1. 为什么选择「人人都是产品经理」人人都是产品经理是以产品经理、运营为核心的学习、交流...
    99+
    2023-06-02
  • 如何利用python多线程爬取天气网站图片并保存
    目录1.1 题目1.2 思路 1.2.1 发送请求1.2.2 解析网页 1.2.3 获取结点 1.2.4 数据保存 (单线程) 1.2.4 数据保存 (多线程)总结1.1 题目 指定...
    99+
    2024-04-02
  • 如何使用Python爬虫实现抓取电影网站信息并入库
    这篇文章主要介绍如何使用Python爬虫实现抓取电影网站信息并入库,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一.环境搭建1.下载安装包访问 Python官网下载地址:https://www.python.org/...
    99+
    2023-06-29
  • node中如何借助第三方开源库实现网站爬取功能
    这篇文章主要介绍node中如何借助第三方开源库实现网站爬取功能,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!nodejs实现网站爬取功能第三方库介绍request 对网络请求的封装c...
    99+
    2024-04-02
  • 如何在Laravel框架中使用ASP重定向来提高网站性能?
    随着互联网和移动设备的普及,网站的访问量越来越大,为了提高用户的使用体验,网站的性能优化变得越来越重要。Laravel是一个非常流行的PHP框架,它提供了许多工具来帮助开发人员优化网站性能。其中,ASP重定向是一个非常有用的工具,可以帮助开...
    99+
    2023-08-24
    重定向 laravel windows
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作