广告
返回顶部
首页 > 资讯 > 后端开发 > Python >Python爬虫中自动爬取某车之家各车销售数据的示例分析
  • 209
分享到

Python爬虫中自动爬取某车之家各车销售数据的示例分析

2023-06-15 08:06:43 209人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

这篇文章主要介绍python爬虫中自动爬取某车之家各车销售数据的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一、目标网页分析目标网站是某车之家关于品牌汽车车型的口碑模块相关数据,比如我们演示的案例奥迪Q5L

这篇文章主要介绍python爬虫中自动爬取某车之家各车销售数据的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!

一、目标网页分析

目标网站是某车之家关于品牌汽车车型的口碑模块相关数据,比如我们演示的案例奥迪Q5L的口碑页面如下:

https://k.autohome.com.cn/4851/#pvareaid=3311678

为了演示方式,大家可以直接打开上面这个网址,然后拖到全部口碑位置,找到我们本次采集需要的字段如下图所示:

Python爬虫中自动爬取某车之家各车销售数据的示例分析

采集字段

我们进行翻页发现,浏览器网址发生了变化,大家可以对下如下几页的网址找出规律:

Https://k.autohome.com.cn/4851/index_2.html#dataListhttps://k.autohome.com.cn/4851/index_3.html#dataListhttps://k.autohome.com.cn/4851/index_4.html#dataList

对于上面写网址,我们发现可变部分是车型(如4851)以及页码(如2,3,4),于是我们可以构建url参数如下:

# typeid是车型,page是页码url = f'https://k.autohome.com.cn/{typeid}/index_{page}.html#dataList'

二、数据请求

通过简单的测试,发现似乎不存在反爬,那就简单了。

我们先引入需要用到的库:

import requestsimport pandas as pdimport htmlfrom lxml import etreeimport re

然后创建一个数据请求的函数备用:

# 获取网页数据(传递参数 车型typeid和页码数)def get_html(typeid,page):    # 组合出请求地址    url = f'https://k.autohome.com.cn/{typeid}/index_{page}.html#dataList'    # 请求数据(因为没有反爬,这里没有设置请求头和其他参数)    r = requests.get(url)    # 请求的网页数据中有网页特殊字符,通过以下方法进行解析    r = html.unescape(r.text)    # 返回网页数据    return r

请求来的数据就是网页html文本,我们接下来采用re解析出一共多少页码,再用xpath进行采集字段的解析。

三、数据解析

由于需要进行翻页,这里我们可以先通过re正则表达式获取总页码。通过查看网页数据,我们发现总页码可以通过如下方式获取:

try:    pages = int(re.findall(r'共(\d+)页',r)[0])# 如果请求不到页数,则表示该车型下没有口碑数据except :    print(f'{name} 没有数据!')    continue

Python爬虫中自动爬取某车之家各车销售数据的示例分析

总页码采集

关于待采集字段信息,我们发现都在节点div[@class="mouthcon-cont-left"]里,可以先定位这个节点数据,然后再进行逐一解析。

Python爬虫中自动爬取某车之家各车销售数据的示例分析

待采集字段信息所在节点

此外,我们发现每一页最多15个车型口碑数据,因此我们每页可以定位15个待采集信息数据集,遍历采集代码:

divs = r_html.xpath('.//div[@class="mouthcon-cont-left"]')# 遍历每个全部的车辆销售信息for div in divs:    # 找到车辆销售信息所在的地方    mt = div.xpath('./div[@class="choose-con mt-10"]')[0]    # 找到所需字段    infos = mt.xpath('./dl[@class="choose-dl"]')    # 设置空的字典,用于存储单个车辆信息    item = {}    # 遍历车辆信息字段    for info in infos:        key = info.xpath('.//dt/text()')[0]        # 当字段为购买车型时,进行拆分为车型和配置        if key == '购买车型':            item[key] = info.xpath('.//dd/a/text()')[0]            item['购买配置'] = info.xpath('.//span[@class="font-arial"]/text()')[0]        # 当字段为购车经销商时,需要获取经销商的id参数,再调用api获取其真实经销商信息(这里有坑)        elif key == '购车经销商':            # 经销商id参数            经销商id = info.xpath('.//dd/a/@data-val')[0] +','+ info.xpath('.//dd/a/@data-evalid')[0]            # 组合经销商信息请求地址            jxs_url = base_jxs_url+经销商id+'|'            # 请求数据(为JSON格式)            data = requests.get(jxs_url)            j = data.json()            # 获取经销商名称            item[key] = j['result']['List'][0]['CompanySimple']        else:            # 其他字段时,替换转义字符和空格等为空            item[key] = info.xpath('.//dd/text()')[0].replace("\r\n","").replace(' ','').replace('\xa0','')

四、数据存储

由于没啥反爬,这里直接将采集到的数据转化为pandas.DataFrame类型,然后存储为xlsx文件即可。

df = pd.DataFrame(items)df = df[['购买车型', '购买配置', '购买地点', '购车经销商', '购买时间', '裸车购买价']]# 数据存储在本地df.to_excel(r'车辆销售信息.xlsx',index=None,sheet_name='data')

五、采集结果预览

整个爬虫过程比较简单,采集下来的数据也比较规范,以本文案例奥迪Q5L示例如下:

Python爬虫中自动爬取某车之家各车销售数据的示例分析

以上是“python爬虫中自动爬取某车之家各车销售数据的示例分析”这篇文章的所有内容,感谢各位的阅读!希望分享的内容对大家有帮助,更多相关知识,欢迎关注编程网Python频道!

--结束END--

本文标题: Python爬虫中自动爬取某车之家各车销售数据的示例分析

本文链接: https://www.lsjlt.com/news/278937.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Python爬虫中自动爬取某车之家各车销售数据的示例分析
    这篇文章主要介绍Python爬虫中自动爬取某车之家各车销售数据的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一、目标网页分析目标网站是某车之家关于品牌汽车车型的口碑模块相关数据,比如我们演示的案例奥迪Q5L...
    99+
    2023-06-15
  • Python爬虫之自动爬取某车之家各车销售数据
    目录一、目标网页分析二、数据请求三、数据解析四、数据存储五、采集结果预览一、目标网页分析 目标网站是某车之家关于品牌汽车车型的口碑模块相关数据,比如我们演示的案例奥迪Q5L的口碑页面...
    99+
    2022-11-12
  • Python爬虫之爬取2020女团选秀数据的示例分析
    这篇文章主要介绍Python爬虫之爬取2020女团选秀数据的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一、先看结果1.1创造营2020撑腰榜前三甲创造营2020撑腰榜前三名分别是 希林娜依·高、陈卓璇 、...
    99+
    2023-06-14
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作