广告
返回顶部
首页 > 资讯 > 后端开发 > Python >Python爬虫入门教程 38-100
  • 309
分享到

Python爬虫入门教程 38-100

爬虫入门教程Python 2023-01-30 23:01:10 309人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

爬前叨叨 今天要爬取一下正规大学名单,这些名单是教育部公布具有招生资格的高校名单,除了这些学校以外,其他招生的单位,其所招学生的学籍、发放的毕业证书国家均不予承认,也就是俗称的野鸡大学! 网址是 https://daxue.eol.cn

爬前叨叨

今天要爬取一下正规大学名单,这些名单是教育部公布具有招生资格的高校名单,除了这些学校以外,其他招生的单位,其所招学生的学籍、发放的毕业证书国家均不予承认,也就是俗称的野鸡大学

python3爬虫入门教程

网址是 https://daxue.eol.cn/mingdan.shtml 爬取完毕之后,我们进行一些基本的数据分析,套路如此类似,哈哈

这个小项目采用的是scrapy,关键代码

import scrapy
from scrapy import Request,Selector

class SchoolSpider(scrapy.Spider):
    name = 'School'
    allowed_domains = ['daxue.eol.cn']
    start_urls = ['Https://daxue.eol.cn/mingdan.shtml']

    def parse(self, response):
        select = Selector(response)
        links = select.CSS(".province>a")
        
        for item in links:
            name = item.css("::text").extract_first()
            link = item.css("::attr(href)").extract_first()

            if name in ["河南","山东"]:
                yield Request(link,callback=self.parse_he_shan,meta={"name" : name})
            else:
                yield Request(link,callback=self.parse_school,meta={"name" : name})

注意到几个问题,第一个所有的页面都可以通过第一步抓取到
python3爬虫入门教程

但是里面出现了两个特殊页面,也就是山东和河南

北京等学校

python3爬虫入门教程

河南等学校
python3爬虫入门教程

对于两种不同的排版,我们采用2个方法处理,细节的地方看代码就可以啦!
尤其是下面对字符串的处理,你要仔细的查阅~

    # 专门为河南和山东编写的提取方法
    def parse_he_shan(self,response):
        name = response.meta["name"]
        data = response.css(".table-x tr")
        for item in data:
            school_name = item.css("td:not(.tmax)::text").extract()

            if len(school_name)>0:
                for s in school_name:
                    if len(s.strip())>0:
                        if len(s.split("."))==1:
                            last_name = s.split(".")[0]
                        else:
                            last_name = s.split(".")[1]  # 最终获取到的名字
                        yield {
                            "city_name": name,
                            "school_name": last_name,
                            "code": "",
                            "department": "",
                            "location": "",
                            "subject": "",
                            "private": ""
                        }

    # 通用学校提取
    def parse_school(self,response):
        name = response.meta["name"]

        schools = response.css(".table-x tr")[2:]

        for item in schools:

            school_name = item.css("td:nth-child(2)::text").extract_first()
            code =  item.css("td:nth-child(3)::text").extract_first()
            department = item.css("td:nth-child(4)::text").extract_first()
            location = item.css("td:nth-child(5)::text").extract_first()
            subject = item.css("td:nth-child(6)::text").extract_first()
            private = item.css("td:nth-child(7)::text").extract_first()
            yield {
                "city_name":name,
                "school_name":school_name,
                "code":code,
                "department":department,
                "location":location,
                "subject":subject,
                "private":private
            }

运行代码,跑起来,一会数据到手。O(∩_∩)O哈哈~

python3爬虫入门教程

查看专科学校和本科学校数量差别

因为河南和山东数据的缺失,需要踢出这两个省份

import pymonGo
import numpy as np
import pandas as pd
from pandas import Series,DataFrame
import matplotlib.pyplot as plt

client = pymongo.MongoClient("localhost",27017)
schools = client["school"]
collection = schools["schools"]

df = DataFrame(list(collection.find()))

df = df[df["code"]!=""]
# 汇总本科和专业
df.groupby(["subject"]).size()

结果显示,数量基本平衡

subject
专科    1240
本科    1121
dtype: int64

查看各省排名

rank = df.groupby(by="city_name").size()
rank = rank.sort_values(ascending=False)

# 设置中文字体和负号正常显示
plt.rcParams['font.sans-serif'] = ['SimHei']
plt.rcParams['axes.unicode_minus'] = False

plt.figure(figsize=(12,8),dpi=80)
plt.subplot(1,1,1)


x = np.arange(len(rank.index))
y = rank.values
rect = plt.bar(left=x,height=y,width=0.618,label="学校数目",align="center",color="#03a9f4",edgecolor="#03a9f4",)

plt.xticks(x,rank.index,rotation=45,fontsize=9)
plt.yticks(np.arange(0,180,10))


plt.xlabel("城市")
plt.ylabel("大学数量")

plt.legend(loc = "upper right")

## 编辑文本

for r in rect:
    height = r.get_height() # 获取高度
    
    plt.text(r.get_x()+r.get_width()/2,height+1,str(height),size=6,ha="center",va="bottom")

plt.show()

好好研究这部分代码,咱已经开始慢慢的在爬虫中添加数据分析的内容了,我会尽量把一些常见的参数写的清晰一些

python3爬虫入门教程

江苏和广东大学真多~

python3爬虫入门教程

--结束END--

本文标题: Python爬虫入门教程 38-100

本文链接: https://www.lsjlt.com/news/181188.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Python爬虫入门教程 38-100
    爬前叨叨 今天要爬取一下正规大学名单,这些名单是教育部公布具有招生资格的高校名单,除了这些学校以外,其他招生的单位,其所招学生的学籍、发放的毕业证书国家均不予承认,也就是俗称的野鸡大学! 网址是 https://daxue.eol.cn...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 29-100
    1. 手机APP数据----写在前面 继续练习pyspider的使用,最近搜索了一些这个框架的一些使用技巧,发现文档竟然挺难理解的,不过使用起来暂时没有障碍,估摸着,要在写个5篇左右关于这个框架的教程。今天教程中增加了图片的处理,你可以重...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 44-100
    1. 第二款抓包工具Charles安装与使用 Charles和Fiddler一样,也是一款抓包工具,比Fiddler界面更加清晰,支持多平台 1.1 官方网址 https://www.charlesproxy.com/ 1.2 下载地址...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 45-100
    1. Charles抓取兔儿故事背景介绍 之前已经安装了Charles,接下来我将用两篇博客简单写一下关于Charles的使用,今天抓取一下兔儿故事里面关于小猪佩奇的故事。 爬虫编写起来核心的重点是分析到链接,只要把链接分析到,剩下的就好...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 47-100
    1. 准备下载软件 介绍一款爬虫辅助工具mitmproxy ,mitmproxy 就是用于MITM的proxy,MITM中间人攻击。说白了就是服务器和客户机中间通讯多增加了一层。跟Fiddler和Charles最大的不同就是,mitmpr...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 46-100
    1. 手机收音机-爬前叨叨 今天选了一下,咱盘哪个APP呢,原计划是弄荔枝APP,结果发现竟然没有抓到数据,很遗憾,只能找个没那么圆润的了。搜了一下,找到一个手机收音机 下载量也是不错的。 2. 爬虫套路 爬虫基本套路 抓包获取链接 ...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 55-100
    验证码探究 如果你是一个数据挖掘爱好者,那么验证码是你避免不过去的一个天坑,和各种验证码斗争,必然是你成长的一条道路,接下来的几篇文章,我会尽量的找到各种验证码,并且去尝试解决掉它,中间有些技术甚至我都没有见过,来吧,一起Coding吧 ...
    99+
    2023-01-31
    爬虫 入门教程 Python
  • Python爬虫入门教程 65-100
    爬虫与反爬虫的修罗场 哪种平台最吸引爬虫爱好者,当然是社区类的,那里容易产生原生态,高质量的数据啊, 你看微博,知乎,豆瓣爬的不亦乐乎。 评论也是产生内容的好地方 生活类点评网站 旅游类点评网站 音乐类点评 只要有点评的地方,总有成千上万...
    99+
    2023-01-31
    爬虫 入门教程 Python
  • Python爬虫入门教程 41-100
    爬前叨叨 从40篇博客开始,我将逐步讲解一下手机APP的爬虫,关于这部分,我们尽量简化博客内容,在这部分中可能涉及到一些逆向,破解的内容,这部分尽量跳过,毕竟它涉及的东西有点复杂,并且偏离了爬虫体系太远,有兴趣的博友,可以一起研究下。 之...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 40-100
    爬前叨叨 第40篇博客吹响号角,爬取博客园博客~本文最终抓取到了从2010年1月1日到2019年1月7日的37W+文章,后面可以分析好多东西了呢 经常看博客的同志知道,博客园每个栏目下面有200页,多了的数据他就不显示了,最多显示4000...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 37-100
    爬前叨叨 2019年开始了,今年计划写一整年的博客呢~,第一篇博客写一下 一个外包网站的爬虫,万一你从这个外包网站弄点外快呢,呵呵哒 数据分析 官方网址为 https://www.clouderwork.com/ 进入全部项目列表页面...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 10-100
    图虫网-写在前面 经历了一顿噼里啪啦的操作之后,终于我把博客写到了第10篇,后面,慢慢的会涉及到更多的爬虫模块,有人问scrapy 啥时候开始用,这个我预计要在30篇以后了吧,后面的套路依旧慢节奏的,所以莫着急了,100篇呢,预计4~5个...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 15-100
    石家庄政民互动数据爬取-写在前面 今天,咱抓取一个网站,这个网站呢,涉及的内容就是 网友留言和回复,特别简单,但是网站是gov的。网址为 http://www.sjz.gov.cn/col/1490066682000/index.html...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 20-100
    美好的一天又开始了,今天咱继续爬取IT在线教育类网站,慕课网,这个平台的数据量并不是很多,所以爬取起来还是比较简单的 打开我们要爬取的页面,寻找分页点和查看是否是异步加载的数据。 进行了一些相应的分析,发现并没有异步数据,只需要模...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 25-100
    1. 知乎文章图片写在前面 今天开始尝试爬取一下知乎,看一下这个网站都有什么好玩的内容可以爬取到,可能断断续续会写几篇文章,今天首先爬取最简单的,单一文章的所有回答,爬取这个没有什么难度。 找到我们要爬取的页面,我随便选了一个 https...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 26-100
    1. 知乎文章图片爬取器之二博客背景 昨天写了知乎文章图片爬取器的一部分代码,针对知乎问题的答案json进行了数据抓取,博客中出现了部分写死的内容,今天把那部分信息调整完毕,并且将图片下载完善到代码中去。 首先,需要获取任意知乎的问题,只...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 30-100
    1. 高考派大学数据----写在前面 终于写到了scrapy爬虫框架了,这个框架可以说是python爬虫框架里面出镜率最高的一个了,我们接下来重点研究一下它的使用规则。 安装过程自己百度一下,就能找到3种以上的安装手法,哪一个都可以安装上...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 36-100
    爬前叨叨 2018年就要结束了,还有4天,就要开始写2019年的教程了,没啥感动的,一年就这么过去了,今天要爬取一个网站叫做酷安,是一个应用商店,大家可以尝试从手机APP爬取,不过爬取APP的博客,我打算在50篇博客之后在写,所以现在就放...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 48-100
    1. 爬取前的分析 mitmdump是mitmproxy的命令行接口,比Fiddler、Charles等工具方便的地方是它可以对接Python脚本。 有了它我们可以不用手动截获和分析HTTP请求和响应,只需写好请求和响应的处理逻辑即可。 ...
    99+
    2023-01-30
    爬虫 入门教程 Python
  • Python爬虫入门教程 49-100
    爬前准备工作 在开始安装Appium之前,你要先知道Appium是做什么的?Appium 是一个自动化测试开源工具,看到没,做测试用的,它有点类似Selenium,可以自动操作APP实现一系列的操作。 标记重点,可以使用python对Ap...
    99+
    2023-01-30
    爬虫 入门教程 Python
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作