iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >怎么用Python爬虫获取国外大桥排行榜数据清单
  • 604
分享到

怎么用Python爬虫获取国外大桥排行榜数据清单

2023-06-30 14:06:02 604人浏览 八月长安

Python 官方文档:入门教程 => 点击学习

摘要

这篇文章主要介绍“怎么用python爬虫获取国外大桥排行榜数据清单”,在日常操作中,相信很多人在怎么用python爬虫获取国外大桥排行榜数据清单问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用Python

这篇文章主要介绍“怎么用python爬虫获取国外大桥排行榜数据清单”,在日常操作中,相信很多人在怎么用python爬虫获取国外大桥排行榜数据清单问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用Python爬虫获取国外大桥排行榜数据清单”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

前言:

正式开始前,先安装 pyquery 到本地开发环境中。命令如下:pip install pyquery ,我使用的版本为 1.4.3

基本使用如下所示,看懂也就掌握了 5 成了,就这么简单。

from pyquery import PyQuery as pqs = '<html><title>橡皮擦的PyQuery小课堂</title></html>'doc = pq(s)print(doc('title'))

输出如下内容:

<title>橡皮擦的PyQuery小课堂</title>

也可以直接将要解析的网址 URL 传递给 pyquery 对象,代码如下所示:

from pyquery import PyQuery as pqurl = "https://www.bilibili.com/"doc = pq(url=url,encoding="utf-8")print(doc('title')) # <title>哔哩哔哩 (゜-゜)つロ 干杯~-bilibili</title>

相同的思路,还可以通过文件初始化 pyquery 对象,只需要修改参数为 filename 即可。

基础铺垫过后,就可以进入到实操环节,下面是本次要抓取的目标案例分析。

目标站点分析

本次要采集的为 :List of Highest International Bridges(最高国际桥梁名单),

页面呈现的数据如下所示:

怎么用Python爬虫获取国外大桥排行榜数据清单

在翻阅过程中发现多数都是中国设计的,果然我们基建世界第一。

翻页规则如下所示:

Http://www.highestbridges.com/wiki/index.PHP?title=List_of_Highest_International_Bridges/Page_1
http://www.highestbridges.com/wiki/index.php?title=List_of_Highest_International_Bridges/Page_2
# 实测翻到第 13 页数据就空了,大概1200座桥梁
http://www.highestbridges.com/wiki/index.php?title=List_of_Highest_International_Bridges/Page_13

由于目标数据以表格形式存在,故直接按照表头提取数据即可。 Rank,Name,Height (meters / feet),Main Span Length,Completed,Location,Country

编码时间

正式编码前,先拿第一页进行练手:

from pyquery import PyQuery as pqurl = "http://www.highestbridges.com/wiki/index.php?title=List_of_Highest_International_Bridges/Page_1"doc = pq(url=url, encoding='utf-8')print(doc('title'))def remove(str):    return str.replace("", "").replace("\n", "")# 获取所有数据所在的行,下面使用的是 CSS 选择器,称作 Jquery 选择器也没啥问题items = doc.find('table.wikitable.sortable tr').items()for item in items:    td_list = item.find('td')    rank = td_list.eq(1).find("span.sorttext").text()    name = td_list.eq(2).find("a").text()    height = remove(td_list.eq(3).text())    length = remove(td_list.eq(4).text())    completed = td_list.eq(5).text()    location = td_list.eq(6).text()    country = td_list.eq(7).text()    print(rank, name, height, length, completed, location, country)

代码整体写下来,发现依旧是对于选择器的依赖比较大,也就是需要熟练的操作选择器,选中目标元素,方便获取最终的数据。

将上述代码扩大到全部数据,修改成迭代采集:

from pyquery import PyQuery as pqimport timedef remove(str):    return str.replace("", "").replace("\n", "").replace(",", ",")def get_data(page):    url = "http://www.highestbridges.com/wiki/index.php?title=List_of_Highest_International_Bridges/Page_{}".fORMat(        page)    print(url)    doc = pq(url=url, encoding='utf-8')    print(doc('title'))    # 获取所有数据所在的行,下面使用的是 css 选择器,称作 jquery 选择器也没啥问题    items = doc.find('table.wikitable.sortable tr').items()    for item in items:        td_list = item.find('td')        rank = td_list.eq(1).find("span.sorttext").text()        name = remove(td_list.eq(2).find("a").text())        height = remove(td_list.eq(3).text())        length = remove(td_list.eq(4).text())        completed = remove(td_list.eq(5).text())        location = remove(td_list.eq(6).text())        country = remove(td_list.eq(7).text())        data_tuple = (rank, name, height, length, completed, location, country)        save(data_tuple)def save(data_tuple):    try:        my_str = ",".join(data_tuple) + "\n"        # print(my_str)        with open(f"./data.csv", "a+", encoding="utf-8") as f:            f.write(my_str)            print("写入完毕")    except Exception as e:        passif __name__ == '__main__':    for page in range(1, 14):        get_data(page)        time.sleep(3)

其中发现存在英文的逗号,统一进行修改,即 remove(str) 函数的应用。

到此,关于“怎么用Python爬虫获取国外大桥排行榜数据清单”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注编程网网站,小编会继续努力为大家带来更多实用的文章!

--结束END--

本文标题: 怎么用Python爬虫获取国外大桥排行榜数据清单

本文链接: https://www.lsjlt.com/news/329538.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Python爬虫获取国外大桥排行榜数据清单
    目录目标站点分析编码时间前言: 本例开始学习 PyQuery 解析框架,该解析对从前端转 Python 的朋友非常友好,因为它模拟的是 JQuery 操作。 正式...
    99+
    2024-04-02
  • 怎么用Python爬虫获取国外大桥排行榜数据清单
    这篇文章主要介绍“怎么用Python爬虫获取国外大桥排行榜数据清单”,在日常操作中,相信很多人在怎么用Python爬虫获取国外大桥排行榜数据清单问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用Python...
    99+
    2023-06-30
  • 如何使用python爬取B站排行榜Top100的视频数据
    记得收藏呀!!! 1、第三方库导入 from bs4 import BeautifulSoup # 解析网页 import re # 正则表达式,进行文字匹配 import ...
    99+
    2024-04-02
  • 怎么使用python爬虫爬取数据
    本篇内容介绍了“怎么使用python爬虫爬取数据”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!python爬出六部曲第一步:安装reques...
    99+
    2023-06-29
  • Python网络爬虫之怎么获取网络数据
    使用 Python 获取网络数据使用 Python 语言从互联网上获取数据是一项非常常见的任务。Python 有一个名为 requests 的库,它是一个 Python 的 HTTP 客户端库,用于向 Web 服务器发起 HTTP 请求。我...
    99+
    2023-05-14
    Python
  • 怎么使用python爬虫爬取二手房数据
    这篇文章主要介绍怎么使用python爬虫爬取二手房数据,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!python的数据类型有哪些python的数据类型:1. 数字类型,包括int(整型)、long(长整型)和floa...
    99+
    2023-06-14
  • 怎么用python爬取中国大学排名网站排名信息
    今天就跟大家聊聊有关怎么用python爬取中国大学排名网站排名信息,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。 程序解决问题如下:利用python网络爬虫爬取中国大学排名...
    99+
    2023-06-29
  • 怎么利用Python对500强排行榜数据进行可视化分析
    今天小编给大家分享一下怎么利用Python对500强排行榜数据进行可视化分析的相关知识点,内容详细,逻辑清晰,相信大部分人都还太了解这方面的知识,所以分享这篇文章给大家参考一下,希望大家阅读完这篇文章后有所收获,下面我们一起来了解一下吧。一...
    99+
    2023-06-30
  • python怎么利用多线程+队列技术爬取中介网互联网网站排行榜
    本篇内容介绍了“python怎么利用多线程+队列技术爬取中介网互联网网站排行榜”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!目标站点分析本次...
    99+
    2023-06-30
  • Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据
    这篇文章主要介绍了Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python爬虫之怎么使用BeautifulSoup和Reque...
    99+
    2023-07-05
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作