iis服务器助手广告广告
返回顶部
首页 > 资讯 > 前端开发 > node.js >node.js怎么爬取中关村的在线电瓶车信息
  • 864
分享到

node.js怎么爬取中关村的在线电瓶车信息

2024-04-02 19:04:59 864人浏览 薄情痞子
摘要

这篇文章给大家分享的是有关node.js怎么爬取中关村的在线电瓶车信息的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。步骤第一步,引入需要的库var cheerio&nb

这篇文章给大家分享的是有关node.js怎么爬取中关村的在线电瓶车信息的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。

步骤

第一步,引入需要的库

var cheerio = require('cheerio');
var fetch = require('node-fetch');

// cheerio 是一个类似浏览器端的Jquery,用来解析html的
// fetch 用来发送请求

第二步,设置初始的爬取的入口(我身处杭州,所以地区选了杭州的?)

// 初始url
var url = "Http://detail.zol.com.cn/convenienttravel/hangzhou/#list_merchant_loc"
// 由于每个a标签下是相对路径,故需要一个根地址来拼接,如下
var urlRoot = "http://detail.zol.com.cn" 
// 存放所有url,之所以用set,是为了防止有相同的而重复爬去
var urls = new Set()
// 存储所有数据
var data = []

至此,我们的准备部分结束了?,接下来,开始表演了

分析网页,思考爬取的方式

node.js怎么爬取中关村的在线电瓶车信息

每行4款,每页是48款,一共16页

思路:

  • 每次获取当前页48个链接,并点进去之后,拿到该电瓶车的名称和价格(其他信息获取方式一样,自行改就好?)

  • 第一页的全部完成之后,翻到下一页,继续爬,直到最后一页结束

首先我们定义一个函数如下

// 这是得到每个页面的48个链接,并开始发送请求

function ad(arg){
// 参数 arg 先不管
// 本地化一下需要爬取的链接
let url2 = arg || url;
// 请求第一页该网页,拿到数据之后,复制给 app
var app = await fetch(url2).then(res=>res.text())
// 然后假装用jQuery解析了
var $ = cheerio.load(app)
// 获取当前页所有电瓶车的a标签
var ele = $("#J_PicMode a.pic")
// 存放已经爬取过的url,防止重复爬取
var old_urls = []
var urlapp = []
//拿到所有a标签地址之后,存在数组里面,等会儿要开始爬的
for (let i = 0; i < ele.length; i++) {
old_urls.push(fetch(urlRoot+$(ele[i]).attr('href')).then(res=>res.text()))
}
// 用把URL一块丢给promise处理
urlapp = await Promise.all(old_urls)
// 处理完成之后,循环加入jQuery?
for (let i = 0; i < urlapp.length; i++) {
let $2 = cheerio.load(urlapp[i],{decodeEntities: false})
data.push({
name:$2(".product-model__name").text(),
price:$2(".price-type").text()
})
}
// 至此,一页的数据就爬完了
// console.log(data);

// 然后开始爬取下一页
var nextURL = $(".next").attr('href')
// 判断当前页是不是最后一页
if (nextURL){
let next = await fetch(urlRoot+nextURL).then(res=>res.text())
// 获取下一页的标签,拿到地址,走你
ad(urlRoot+nextURL)
}
return data
}
ad()

完整代码如下

var cheerio = require('cheerio');
var fetch = require('node-fetch');
var url = "http://detail.zol.com.cn/convenienttravel/hangzhou/#list_merchant_loc"
var urlRoot = "http://detail.zol.com.cn"
// var url = "http://localhost:3222/app1"
var urls = new Set()
var data = [] 
async function ad(arg){
let url2 = arg || url;
var app = await fetch(url2).then(res=>res.text())
var $ = cheerio.load(app)
var ele = $("#J_PicMode a.pic")
var old_urls = []
var urlapp = []
for (let i = 0; i < ele.length; i++) {
old_urls.push(fetch(urlRoot+$(ele[i]).attr('href')).then(res=>res.text()))
}
urlapp = await Promise.all(old_urls)
for (let i = 0; i < urlapp.length; i++) {
let $2 = cheerio.load(urlapp[i],{decodeEntities: false})
data.push({
name:$2(".product-model__name").text(),
price:$2(".price-type").text()
})
}

var nextURL = $(".next").attr('href')
if (nextURL){
let next = await fetch(urlRoot+nextURL).then(res=>res.text())
ad(urlRoot+nextURL)
}
return data
}
ad()

感谢各位的阅读!关于“node.js怎么爬取中关村的在线电瓶车信息”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!

--结束END--

本文标题: node.js怎么爬取中关村的在线电瓶车信息

本文链接: https://www.lsjlt.com/news/68247.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • node.js怎么爬取中关村的在线电瓶车信息
    这篇文章给大家分享的是有关node.js怎么爬取中关村的在线电瓶车信息的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。步骤第一步,引入需要的库var cheerio&nb...
    99+
    2024-04-02
  • node.js如何爬取中关村的在线电瓶车信息
    这篇文章主要介绍“node.js如何爬取中关村的在线电瓶车信息”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“node.js如何爬取中关村的在线电瓶车信息”文章能帮助大家解决问题。步骤第一步,引入需要...
    99+
    2023-06-17
  • node.js如何爬取在线电瓶车信息
    本文小编为大家详细介绍“node.js如何爬取在线电瓶车信息”,内容详细,步骤清晰,细节处理妥当,希望这篇“node.js如何爬取在线电瓶车信息”文章能帮助大家解决疑惑,下面跟着小编的思路慢慢深入,一起来学习新知识吧。步骤第一步,引入需要的...
    99+
    2023-07-04
  • 如何使用node.js爬取在线电瓶车信息
    本篇内容介绍了“如何使用node.js爬取在线电瓶车信息”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!步骤第一步,引入需要的库var&nbs...
    99+
    2023-07-04
  • 怎么在Linux系统中获取无线网卡信息
    这篇文章将为大家详细讲解有关怎么在Linux系统中获取无线网卡信息,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。iwpriv配置连接选项命令例:代码如下:[root@linux ~]# iw...
    99+
    2023-06-12
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作