iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >怎么在python中使用xpath爬取网上数据
  • 451
分享到

怎么在python中使用xpath爬取网上数据

2023-06-06 14:06:51 451人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

本篇文章给大家分享的是有关怎么在python中使用xpath爬取网上数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。设计数据库from Django.db 

本篇文章给大家分享的是有关怎么在python中使用xpath爬取网上数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。

设计数据库

from Django.db import modelsfrom uuslug import slugifyimport uuidimport osdef products_directory_path(instance, filename):  ext = filename.split('.')[-1]  filename = '{}.{}'.fORMat(uuid.uuid4().hex[:8], ext)  # return the whole path to the file  return os.path.join('images', "products", instance.title, filename)def product_relatedimage_directory_path(instance, filename):  ext = filename.split('.')[-1]  filename = '{}.{}'.format(uuid.uuid4().hex[:8], ext)  # return the whole path to the file  return os.path.join('images', "product_relatedimage", instance.product.title, filename)class ProductsCateGory(models.Model):  """产品分类"""  name = models.CharField('产品分类名', max_length=80, unique=True)  description = models.TextField('产品分类描述', blank=True, null=True)  slug = models.SlugField('slug', max_length=80, blank=True, null=True)  parent_category = models.ForeignKey('self', verbose_name="父级分类", blank=True, null=True, on_delete=models.CASCADE)  def save(self, *args, **kwargs):    if not self.id or not self.slug:      self.slug = slugify(self.name)    super().save(*args, **kwargs)  def __str__(self):    return self.name  class Meta:    ordering = ['name']    verbose_name = "产品分类"    verbose_name_plural = verbose_nameclass ProductsTag(models.Model):  """产品标签"""  name = models.CharField('产品标签名', max_length=30, unique=True)  slug = models.SlugField('slug', max_length=40)  def __str__(self):    return self.name  def save(self, *args, **kwargs):    if not self.id or not self.slug:      self.slug = slugify(self.name)    super().save(*args, **kwargs)  class Meta:    ordering = ['name']    verbose_name = "产品标签"    verbose_name_plural = verbose_nameclass Product(models.Model):  title = models.CharField('标题', max_length=255, unique=True)  slug = models.SlugField('slug', max_length=255, blank=True, null=True)  jscs = models.TextField('技术参数', blank=True, null=True)  image = models.ImageField(upload_to=products_directory_path, verbose_name="产品图片")  views = models.PositiveIntegerField('浏览量', default=0)  category = models.ForeignKey('ProductsCategory', verbose_name='分类', on_delete=models.CASCADE, blank=True, null=True)  tags = models.ManyToManyField('ProductsTag', verbose_name='标签集合', blank=True)  def save(self, *args, **kwargs):    if not self.id or not self.slug:      self.slug = slugify(self.title)    super().save(*args, **kwargs)  def update_views(self):    self.views += 1    self.save(update_fields=['views'])  def get_pre(self):    return Product.objects.filter(id__lt=self.id).order_by('-id').first()  def get_next(self):    return Product.objects.filter(id__gt=self.id).order_by('id').first()  def __str__(self):    return self.title  class Meta:    verbose_name = "产品"    verbose_name_plural = verbose_nameclass ProductAdvantage(models.Model):  content = models.TextField('产品优势', blank=True, null=True)  product = models.ForeignKey(Product, on_delete=models.CASCADE, blank=True, null=True)  def __str__(self):    return self.content  class Meta:    verbose_name = "产品优势"    verbose_name_plural = verbose_nameclass ProductBody(models.Model):  body = models.CharField('产品内容', max_length=256, blank=True, null=True)  product = models.ForeignKey(Product, on_delete=models.CASCADE, blank=True, null=True)  def __str__(self):    return self.product.title  class Meta:    verbose_name = "产品内容"    verbose_name_plural = verbose_name

2.脚本编写

1编写获取网页源代码函数

def get_one_page(url):  try:    headers = {      "User-Agent": "Mozilla/5.0 (windows NT 10.0; WOW64) AppleWEBKit/537.36 (Khtml, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}    res = requests.get(url=url, headers=headers)    res.encoding = 'utf-8'    if res.status_code == 200:      return res.text    else:      return None  except Exception:    return None

2根据base页面获取所有产品分类页面链接

if __name__ == '__main__':  content = get_one_page(url)  tree = etree.HTML(content)  # 产品分类url  catgory_urls = tree.xpath('//div[@class="fdh-01-nav"]/div/h4/a/@href')  # 处理catgory_urls  for url in catgory_urls:    url = 'Http://www.kexinjianji.com' + url    print(url)

3根据产品分类页面链接获取对应所有产品链接

if __name__ == '__main__':  content = get_one_page(url)  tree = etree.HTML(content)  # 产品分类  catgory = tree.xpath('//div[@class="cplb-3n-ts-03 b"]/h4/span/text()')  print("产品分类:" + catgory[0])  # 该分类下产品url  urls = tree.xpath('//div[@class="cplb-3n-ts-03-list"]/dl/dt/a/@href')  # 处理url  for url in urls:    url = 'http://www.kexinjianji.com' + url    print(url)  print("=====================================================")

两者结合起来就可以打印出所有产品链接

if __name__ == '__main__':  content = get_one_page(url)  tree = etree.HTML(content)  # 产品分类url  catgory_urls = tree.xpath('//div[@class="fdh-01-nav"]/div/h4/a/@href')  # 处理catgory_urls  for url in catgory_urls:    url = 'http://www.kexinjianji.com' + url    content = get_one_page(url)    tree = etree.HTML(content)    # 产品分类    catgory = tree.xpath('//div[@class="cplb-3n-ts-03 b"]/h4/span/text()')    print("产品分类:" + catgory[0])    # 该分类下产品url    urls = tree.xpath('//div[@class="cplb-3n-ts-03-list"]/dl/dt/a/@href')    # 处理url    for url in urls:      url = 'http://www.kexinjianji.com' + url      print(url)    print("=====================================================")

2使用xpath解析函数返回产品链接的内容

if __name__ == '__main__':  content = get_one_page(url)  tree = etree.HTML(content)  # 产品名称  title = tree.xpath('//*[@id="wrap"]//h2/text()')  images = tree.xpath('//div[@class="sol_tj_left"]/a/img/@src')  # 产品图片  images_url = 'http://www.kexinjianji.com/' + images[0]  # 性能特点  xntd = tree.xpath('//div[@class="w"]//div/span/text()|//div[@class="w"]//div/text()')  # 技术参数  jscs = tree.xpath('//table')[0]  jscs_str = etree.tostring(jscs, encoding='utf-8').decode('utf-8')  # 产品内容  cpnr = tree.xpath('//div[@class="describe"]/p')  print('产品名称:' + title[0])  print('产品图片:' + images_url)  for td in xntd:    print('性能特点:' + td)  print('技术参数:' + jscs_str)  for cp in cpnr:    # string(.) 获取当前标签下所有文本内容    cp = cp.xpath('string(.)')    print('产品内容:' + cp)  print('============================================')

将三者结合在一起就可以获取所有产品信息

if __name__ == '__main__':  content = get_one_page(url)  tree = etree.HTML(content)  # 产品分类url  catgory_urls = tree.xpath('//div[@class="fdh-01-nav"]/div/h4/a/@href')  # 处理catgory_urls  for url in catgory_urls:    url = 'http://www.kexinjianji.com' + url    content = get_one_page(url)    tree = etree.HTML(content)    # 产品分类    catgory = tree.xpath('//div[@class="cplb-3n-ts-03 b"]/h4/span/text()')    # 该分类下产品url    urls = tree.xpath('//div[@class="cplb-3n-ts-03-list"]/dl/dt/a/@href')    # 处理url    for url in urls:      url = 'http://www.kexinjianji.com' + url      content = get_one_page(url)      try:        tree = etree.HTML(content)        # 产品名称        title = tree.xpath('//*[@id="wrap"]//h2/text()')        images = tree.xpath('//div[@class="sol_tj_left"]/a/img/@src')        # 产品图片        images_url = 'http://www.kexinjianji.com' + images[0]        # 性能特点        xntd = tree.xpath('//div[@class="w"]//div/span/text()|//div[@class="w"]//div/text()')        # 技术参数        jscs = tree.xpath('//table')[0]        jscs_str = etree.tostring(jscs, encoding='utf-8').decode('utf-8')        # 产品内容        cpnr = tree.xpath('//div[@class="describe"]/p')        print("产品分类:" + catgory[0])        print('产品链接:' + url)        print('产品名称:' + title[0])        print('产品图片:' + images_url)        for td in xntd:          print('性能特点:' + td.strip())        # print('技术参数:' + jscs_str)        for cp in cpnr:          # string(.) 获取当前标签下所有文本内容          cp = cp.xpath('string(.)')          print('产品内容:' + cp)        print('============================================')      except Exception as e:        print(e)        print('出错url:' + url)        pass

3.存储到django模型

import requestsfrom lxml.html import etreeimport osimport djangoimport uuidfrom django.core.files.base import ContentFileos.environ.setdefault("DJANGO_SETTINGS_MODULE", "jiaobanzhan.settings")django.setup()from products.models import ProductBody, ProductsCategory, Product, ProductAdvantageurl = 'http://www.kexinjianji.com/product/hzshntjbz_1/'def get_one_page(url):  try:    headers = {      "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103 Safari/537.36"}    res = requests.get(url=url, headers=headers, timeout=10)    res.encoding = 'utf-8'    if res.status_code == 200:      return res.text    else:      return None  except Exception:    print('aa')    return Noneif __name__ == '__main__':  content = get_one_page(url)  tree = etree.HTML(content)  # 产品分类url  catgory_urls = tree.xpath('//div[@class="fdh-01-nav"]/div/h4/a/@href')  # 处理catgory_urls  for url in catgory_urls:    url = 'http://www.kexinjianji.com' + url    content = get_one_page(url)    tree = etree.HTML(content)    # 产品分类    p_catgory = tree.xpath('//div[@class="cplb-3n-ts-03 b"]/h4/span/text()')    # 该分类下产品url    urls = tree.xpath('//div[@class="cplb-3n-ts-03-list"]/dl/dt/a/@href')    # 处理url    for url in urls:      url = 'http://www.kexinjianji.com' + url      content = get_one_page(url)      try:        tree = etree.HTML(content)        # 产品名称        title = tree.xpath('//*[@id="wrap"]//h2/text()')        images = tree.xpath('//div[@class="sol_tj_left"]/a/img/@src')        # 产品图片        images_url = 'http://www.kexinjianji.com' + images[0]        # 性能特点        xntd = tree.xpath('//div[@class="w"]//div/span/text()|//div[@class="w"]//div/text()')        # 技术参数        jscs = tree.xpath('//table')[0]        jscs_str = etree.tostring(jscs, encoding='utf-8').decode('utf-8')        # 产品内容        cpnr = tree.xpath('//div[@class="describe"]/p')        # 判断是否有这分类,没有则新建        catgory = p_catgory[0]        products_catgory = ProductsCategory.objects.filter(name=catgory).exists()        if products_catgory:          products_catgory = ProductsCategory.objects.get(name=catgory)        else:          products_catgory = ProductsCategory(name=catgory)          products_catgory.save()        print(products_catgory)        # 保存产品图片        image_content = requests.get(url=images_url)        ext = images_url.split('.')[-1] # 获取图片类型        filename = '{}.{}'.format(uuid.uuid4().hex[:8], ext) # 随机生成图片名字        upload_image_file = ContentFile(image_content.content, name=filename) # 将图片保存为django类型        product = Product(title=title[0], jscs=jscs_str, image=upload_image_file, category=products_catgory)        product.save()        for td in xntd:          product_advantage = ProductAdvantage()          product_advantage.content = td          product_advantage.product = product          product_advantage.save()        for cp in cpnr:          cp = cp.xpath('string(.)')          product_body = ProductBody()          product_body.body = cp          product_body.product = product          product_body.save()      except Exception as e:        print(e)        print('出错url:' + url)

最后自己手动处理出错url(页面没有获取到技术参数,技术参数是一张图片)

4.总结

xpath 获取标签内容时,p标签中嵌套span标签,源码如下

<div class="describe" >    <p><span>板  宽:</span>1500mm</p>    <p><span>板  厚:</span>4.5 mm</p>    <p><span>出料口:</span>6口</p>    <p><span>重  量:</span>6000 kg</p></div>

使用xpath获取p标签内容
我想得到的效果如下
板 宽:1500mm
板 厚:4.5 mm
出料口:6口
重 量:6000 kg
使用以下xpath 只能分开获取,不是想要的效果

//div[@class="describe"]/p/span/text()|//div[@class="describe"]/p/text()

百度之后找到的解决办法,使用xpath(‘string(.)')
1.先获取所有p标签

cpnr = tree.xpath('//div[@class="describe"]/p')

使用**string(.)**获取所有标签所有文本

cp = cp.xpath('string(.)')

以上就是怎么在Python中使用xpath爬取网上数据,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注编程网Python频道。

--结束END--

本文标题: 怎么在python中使用xpath爬取网上数据

本文链接: https://www.lsjlt.com/news/247355.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 怎么在python中使用xpath爬取网上数据
    本篇文章给大家分享的是有关怎么在python中使用xpath爬取网上数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。设计数据库from django.db ...
    99+
    2023-06-06
  • python中怎么使用XPath爬取小说
    这篇文章将为大家详细讲解有关python中怎么使用XPath爬取小说,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。python的五大特点是什么python的五大特点:1.简单易学,开发程序时,专注的是解决...
    99+
    2023-06-14
  • python使用XPath解析数据爬取起点小说网数据
    目录1. xpath 的介绍优点:安装lxml库XML的树形结构:选取节点的表达式举例:2. 爬取起点小说网在浏览器中获取书名和作者测试使用xpath获取起点小说网的数据1. xpa...
    99+
    2024-04-02
  • python如何使用XPath解析数据爬取起点小说网数据
    小编给大家分享一下python如何使用XPath解析数据爬取起点小说网数据,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python的数据类型有哪些python的...
    99+
    2023-06-14
  • 使用 Python 爬取网页数据
    1. 使用 urllib.request 获取网页 urllib 是 Python 內建的 HTTP 库, 使用 urllib 可以只需要很简单的步骤就能高效采集数据; 配合 Beautiful 等 HTML 解析库, 可以编写出用于采集...
    99+
    2023-01-31
    网页 数据 Python
  • python中使用XPath爬取小说的方法
    这篇“python中使用XPath爬取小说的方法”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“python中使用XPath爬...
    99+
    2023-06-30
  • 怎么使用python爬虫爬取数据
    本篇内容介绍了“怎么使用python爬虫爬取数据”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!python爬出六部曲第一步:安装reques...
    99+
    2023-06-29
  • 怎么用python爬取网站数据
    要用Python爬取网站数据,可以使用Python的爬虫库来实现。下面是一个简单的示例,使用`requests`库来获取网页内容,使...
    99+
    2023-09-07
    python
  • 使用python怎么爬取数据
    使用python怎么爬取数据?很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。Python的优点有哪些1、简单易用,与C/C++、Java、C# 等传统语言相比,P...
    99+
    2023-06-14
  • 怎么在Django中使用Scrapy爬取数据
    怎么在Django中使用Scrapy爬取数据?针对这个问题,这篇文章详细介绍了相对应的分析和解答,希望可以帮助更多想解决这个问题的小伙伴找到更简单易行的方法。在django项目根目录位置创建scrapy项目,django_12是django...
    99+
    2023-06-14
  • 怎么在python中利用Selenium+Requests爬取数据
    本篇文章给大家分享的是有关怎么在python中利用Selenium+Requests爬取数据,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。python的数据类型有哪些pytho...
    99+
    2023-06-14
  • 怎么用Python爬取数据
    这篇文章主要介绍“怎么用Python爬取数据”,在日常操作中,相信很多人在怎么用Python爬取数据问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用Python爬取数据”的疑惑有所帮助!接下来,请跟着小编...
    99+
    2023-06-16
  • Python爬虫中Xpath语法怎么用
    这篇“Python爬虫中Xpath语法怎么用”文章的知识点大部分人都不太理解,所以小编给大家总结了以下内容,内容详细,步骤清晰,具有一定的借鉴价值,希望大家阅读完这篇文章能有所收获,下面我们一起来看看这篇“Python爬虫中Xpath语法怎...
    99+
    2023-06-27
  • 怎么使用python爬虫爬取二手房数据
    这篇文章主要介绍怎么使用python爬虫爬取二手房数据,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!python的数据类型有哪些python的数据类型:1. 数字类型,包括int(整型)、long(长整型)和floa...
    99+
    2023-06-14
  • Python实战使用Selenium爬取网页数据
    目录一. 什么是Selenium?二. 安装Selenium三. 爬取网页数据四. 模拟用户交互五. 处理动态加载内容1. 显式等待2. 隐式等待六. 小结一. 什么是Seleniu...
    99+
    2023-05-18
    Python Selenium爬取网页数据 Python Selenium
  • 怎么使用pycharm爬取数据
    要使用PyCharm爬取数据,可以按照以下步骤进行操作:1. 创建一个新的PyCharm项目:打开PyCharm,点击“Create...
    99+
    2023-08-17
    pycharm
  • 如何用python爬取网页数据
    要用Python爬取网页数据,可以使用Python的一些库和模块,例如requests、BeautifulSoup和Scrapy等。...
    99+
    2023-10-12
    python
  • Python 爬虫:如何用 BeautifulSoup 爬取网页数据
    在网络时代,数据是最宝贵的资源之一。而爬虫技术就是一种获取数据的重要手段。Python 作为一门高效、易学、易用的编程语言,自然成为了爬虫技术的首选语言之一。而 BeautifulSoup 则是 Py...
    99+
    2023-10-23
    python 爬虫 beautifulsoup
  • Python中怎么爬取音频数据
    本篇文章为大家展示了Python中怎么爬取音频数据,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。  分析频道下面就是开始获取每个频道中的全部音频数据了,前面通过解析页面获取到了美...
    99+
    2023-06-17
  • Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据
    这篇文章主要介绍了Python爬虫之怎么使用BeautifulSoup和Requests抓取网页数据的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇Python爬虫之怎么使用BeautifulSoup和Reque...
    99+
    2023-07-05
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作