iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >Python 爬虫 招聘信息并存入数据库
  • 889
分享到

Python 爬虫 招聘信息并存入数据库

爬虫招聘信息数据库 2023-01-30 22:01:47 889人浏览 泡泡鱼

Python 官方文档:入门教程 => 点击学习

摘要

  新学习了selenium,啪一下腾讯招聘   1 from lxml import etree 2 from selenium import WEBdriver 3 import pyMysql 4 def Geturl(f

 

学习selenium,啪一下腾讯招聘

 

 1 from lxml import etree
 2 from selenium import WEBdriver
 3 import pyMysql
 4 def Geturl(fullurl):#获取每个招聘网页的链接
 5     browser.get(fullurl)
 6     shouye_html_text = browser.page_source
 7     shouye_ele = etree.HTML(shouye_html_text)
 8     zp_list = shouye_ele.xpath('//*[@id="position"]/div[1]/table/tbody/tr/td/a/@href')#链接url
 9     zp_url_list  = []
10     for zp_url_lost in zp_list:
11         zp_url  = 'https://hr.tencent.com/'+zp_url_lost
12         zp_url_list.append(zp_url)
13     return zp_url_list
14 def Getinfo(zp_url_list):#获取每个招聘链接内部的内容
15     for zp_url in zp_url_list:
16         browser.get(zp_url)
17         zp_info_html = browser.page_source
18         zp_ele = etree.HTML(zp_info_html)
19         zp_info_title = str(zp_ele.xpath('//*[@id="sharetitle"]/text()')[0])
20         zp_info_location = str(zp_ele.xpath('//*[@id="position_detail"]/div/table/tbody/tr[2]/td[1]/text()')[0])
21         zp_info_type = str(zp_ele.xpath('//*[@id="position_detail"]/div/table/tbody/tr[2]/td[2]/text()')[0])
22         zp_info_num = str(zp_ele.xpath('//*[@id="position_detail"]/div/table/tbody/tr[2]/td[3]/text()')[0])
23         zp_info_need = str(zp_ele.xpath('//*[@id="position_detail"]/div/table/tbody/tr[3]/td/ul/li/text()'))
24         connection = pymysql.connect(host='localhost', user='root', passWord='1234', db='txzp', )
25         try:
26             with connection.cursor() as cursor:
27                 sql = "INSERT INTO `txzp_info` (`title`, `location`,`type`,`num`,`need`) VALUES (%s,%s,%s,%s, %s)"
28                 cursor.execute(sql, (zp_info_title,zp_info_location,zp_info_type,zp_info_num,zp_info_need))
29             connection.commit()
30         finally:
31             connection.close()
32         print(zp_info_title,zp_info_location,zp_info_type,zp_info_num,zp_info_need)
33 if __name__ == '__main__':
34     browser = webdriver.Chrome()
35     pags = int(input('需要几页?'))
36     for i in range(0,pags):
37         url = 'Https://hr.tencent.com/position.PHP?keywords=&tid=0&start={}'
38         fullurl = url.fORMat(str(i*10))
39         zp_url_list = Geturl(fullurl)
40         Getinfo(zp_url_list)
41     browser.close()

 

--结束END--

本文标题: Python 爬虫 招聘信息并存入数据库

本文链接: https://www.lsjlt.com/news/179240.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Python 爬虫 招聘信息并存入数据库
      新学习了selenium,啪一下腾讯招聘   1 from lxml import etree 2 from selenium import webdriver 3 import pymysql 4 def Geturl(f...
    99+
    2023-01-30
    爬虫 招聘信息 数据库
  • Python爬虫实战演练之采集拉钩网招聘信息数据
    目录本文要点:环境介绍本次目标爬虫块使用内置模块:第三方模块:代码实现步骤: (爬虫代码基本步骤)开始代码导入模块发送请求解析数据加翻页保存数据运行代码,得到数据本文要点: ...
    99+
    2024-04-02
  • Python中怎么利用网络爬虫获取招聘信息
    Python中怎么利用网络爬虫获取招聘信息,很多新手对此不是很清楚,为了帮助大家解决这个难题,下面小编将为大家详细讲解,有这方面需求的人可以来学习下,希望你能有所收获。定义一个class类继承object,定义init方法继承self,主函...
    99+
    2023-06-16
  • 详解如何使用Python网络爬虫获取招聘信息
    目录前言项目目标项目准备反爬措施项目实现效果展示小结前言 现在在疫情阶段,想找一份不错的工作变得更为困难,很多人会选择去网上看招聘信息。可是招聘信息有一些是错综复杂的。而且不能把全部...
    99+
    2024-04-02
  • bs4爬虫实战三:获取电影信息并存入mysql数据库
    目标分析这次爬虫的目标网站是:http://dianying.2345.com,爬虫的搜索目标仅限于今年的电影,在网站打开搜索,在年代中选择2018 获取页面的过程在页面的下方单击"下一页",发现URL变成了http:/...
    99+
    2023-01-30
    爬虫 实战 数据库
  • Python实现爬取腾讯招聘网岗位信息
    目录介绍效果展示实现思路源码展示介绍 开发环境 Windows 10 python3.6 开发工具 pycharm 库 numpy、matplotlib、time、xlutils.c...
    99+
    2024-04-02
  • Python爬虫:爬取小说并存储到数据库
    爬取小说网站的小说,并保存到数据库第一步:先获取小说内容#!/usr/bin/python # -*- coding: UTF-8 -*- import ...
    99+
    2024-04-02
  • Python爬虫实现抓取电影网站信息并入库
    目录一.环境搭建1.下载安装包2.修改环境变量3.安装依赖模块二.代码开发三.运行测试1.新建电影信息表2.代码运行四.问题排查和修复1.空白字符报错2.请求报错一.环境搭建 1.下...
    99+
    2024-04-02
  • python selenium实现智联招聘数据爬取
    目录一、主要目的二、前期准备三、思路分析四、具体源代码五、部分成果展示六、总结一、主要目的 最近在玩Python网络爬虫,然后接触到了selenium这个模块,就捉摸着搞点有意思的,...
    99+
    2024-04-02
  • Python怎么实现爬取腾讯招聘网岗位信息
    本篇内容主要讲解“Python怎么实现爬取腾讯招聘网岗位信息”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python怎么实现爬取腾讯招聘网岗位信息”吧!介绍开发环境Windows 10pyth...
    99+
    2023-06-22
  • python爬虫之基金信息存储
    目录1 前言2 信息存储2.1 基金基本信息存储2.2 基金变动信息获取3 需要改进的地方3.1 基金类型3.2 基金的更新顺序4 总结1 前言 前面已经讲了很多次要进行数据存储,终...
    99+
    2024-04-02
  • 【爬虫实战项目】Python爬虫批量旅游景点信息数据并保存本地(附源码)
    前言 今天给大家介绍的是Python爬虫批量下载旅游景点信息数据,在这里给需要的小伙伴们代码,并且给出一点小心得。 首先是爬取之前应该尽可能伪装成浏览器而不被识别出来是爬虫,基本的是加请求头,但是这样...
    99+
    2023-08-31
    python 爬虫 开发语言
  • Python爬虫如何获取数据并保存到数据库中
    本篇内容主要讲解“Python爬虫如何获取数据并保存到数据库中”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“Python爬虫如何获取数据并保存到数据库中”吧!1.简介介绍-网络爬虫(又称为网页蜘...
    99+
    2023-07-02
  • 怎么用Scrapy爬虫框架爬取食品论坛数据并存入数据库
    这篇文章主要介绍“怎么用Scrapy爬虫框架爬取食品论坛数据并存入数据库”,在日常操作中,相信很多人在怎么用Scrapy爬虫框架爬取食品论坛数据并存入数据库问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用...
    99+
    2023-06-17
  • 如何使用Python爬虫实现抓取电影网站信息并入库
    这篇文章主要介绍如何使用Python爬虫实现抓取电影网站信息并入库,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!一.环境搭建1.下载安装包访问 Python官网下载地址:https://www.python.org/...
    99+
    2023-06-29
  • python中selenium如何实现智联招聘数据爬取
    这篇文章将为大家详细讲解有关python中selenium如何实现智联招聘数据爬取,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。python可以做什么Python是一种编程语言,内置了许多有效的工具,Py...
    99+
    2023-06-14
  • Python爬虫爬取全球疫情数据并存储到mysql数据库的步骤
    目录一、mysql数据库建表二、下面直接上代码(爬虫方法)三、插入数据库json数据       四、总结一下爬取数据的步...
    99+
    2024-04-02
  • Python爬虫爬数据写入到EXCEL中
    Python抓数据写到EXCEL中。以前都是写到txt中然后再导入到excel。现在直接写到excel中。#coding=utf-8 import xlwt import requests from bs4 import Beautiful...
    99+
    2023-01-31
    爬虫 数据 Python
  • Python爬虫爬数据写入到文件
    #coding=utf-8 import requests from bs4 import BeautifulSoup import sys reload(sys)   sys.setdefaultencoding('utf8')  r=r...
    99+
    2023-01-31
    爬虫 文件 数据
  • Springboot如何获取前端反馈信息并存入数据库
    这篇文章给大家分享的是有关Springboot如何获取前端反馈信息并存入数据库的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。导入mybatis依赖<!--mybatis--><dependenc...
    99+
    2023-06-14
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作