iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >python scrapy实现模拟登录功能
  • 868
分享到

python scrapy实现模拟登录功能

2023-06-20 16:06:58 868人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

本篇内容介绍了“python scrapy实现模拟登录功能”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!1、requests模块。直接携带c

本篇内容介绍了“python scrapy实现模拟登录功能”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

1、requests模块。直接携带cookies请求页面。

找到url,发送post请求存储cookie。

2、selenium(浏览器自动处理cookie)。

找到相应的input标签,输入文本,点击登录。

3、scrapy直接带cookies。

找到url,发送post请求存储cookie。

# -*- coding: utf-8 -*-import scrapyimport re class GitHubLoginSpider(scrapy.Spider):    name = 'github_login'    allowed_domains = ['github.com']    start_urls = ['https://github.com/login']     def parse(self, response): # 发送Post请求获取Cookies        authenticity_token = response.xpath('//input[@name="authenticity_token"]/@value').extract_first()        utf8 = response.xpath('//input[@name="utf8"]/@value').extract_first()        commit = response.xpath('//input[@name="commit"]/@value').extract_first()        fORM_data = {            'login': 'pengjunlee@163.com',            'passWord': '123456',            'WEBauthn-support': 'supported',            'authenticity_token': authenticity_token,            'utf8': utf8,            'commit': commit}        yield scrapy.FormRequest("Https://github.com/session", formdata=form_data, callback=self.after_login)     def after_login(self, response): # 验证是否请求成功        print(re.findall('Learn Git and GitHub without any code!', response.body.decode()))

知识点扩展:

parse_login方法是提交完表单后callback回调函数指定要执行的方法,为了验证是否成功。这里我们直接在response中搜索Welcome Liu这个字眼就证明登录成功。

这个好理解,重点是yield from super().start_resquests(),这个代表着如果一旦登录成功后,就直接带着登录成功后Cookie值,方法start_urls里面的地址。

这样的话登录成功后的response可以直接在parse里面写。

# -*- coding: utf-8 -*-import scrapyfrom scrapy import FormRequest,Requestclass ExampleLoginSpider(scrapy.Spider):    name = "login_"    allowed_domains = ["example.webscraping.com"]    start_urls = ['http://example.webscraping.com/user/profile']    login_url = 'http://example.webscraping.com/places/default/user/login'    def parse(self, response):        print(response.text)    def start_requests(self):        yield scrapy.Request(self.login_url,callback=self.login)    def login(self,response):        formdata = {            'email':'liushuo@webscraping.com','password':'12345678'}        yield FormRequest.from_response(response,formdata=formdata,                                        callback=self.parse_login)    def parse_login(self,response):        # print('>>>>>>>>'+response.text)        if 'Welcome Liu' in response.text:            yield from super().start_requests()

Python scrapy实现模拟登录功能”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!

--结束END--

本文标题: python scrapy实现模拟登录功能

本文链接: https://www.lsjlt.com/news/298351.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作