iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >Python Requests爬虫中如何求取关键词页面
  • 799
分享到

Python Requests爬虫中如何求取关键词页面

2023-06-29 04:06:57 799人浏览 薄情痞子

Python 官方文档:入门教程 => 点击学习

摘要

小编给大家分享一下python Requests爬虫中如何求取关键词页面,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!需求:爬取搜狗首页的页面数据imp

小编给大家分享一下python Requests爬虫中如何求取关键词页面,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!

需求:爬取搜狗首页的页面数据

import requestsif __name__=='__main__':    #step 1:搜索Url    url='https://123.soGou.com/'    #step 2:发起请求    #get方法会返回一个响应对象    response=requests.get(url=url)    #step 3:获取响应数据,text返回的是字符串形式的响应数据    page_text=response.text    print(page_text)    #step 4:持久化存储    with open('./sogou.html','w',encoding='utf-8') as fp:        fp.write(page_text)    print("爬取数据结束")import requestsif __name__=='__main__':    #step 1:搜索Url    url='Https://123.sogou.com/'    #step 2:发起请求    #get方法会返回一个响应对象    response=requests.get(url=url)    #step 3:获取响应数据,text返回的是字符串形式的响应数据    page_text=response.text    print(page_text)    #step 4:持久化存储    with open('./sogou.html','w',encoding='utf-8') as fp:        fp.write(page_text)    print("爬取数据结束")

Python Requests爬虫中如何求取关键词页面

使用UA伪装 求取关键词页面

import requestsif __name__=='__main__':    #UA伪装:将对应的User-Agent封装到一个字典中    headers={        'User-Agent':'Mozilla/5.0 (windows NT 10.0; WOW64) AppleWEBKit/537.36 (KHTML, like Gecko) Chrome/98.0.4758.9 Safari/537.36'    }    url='https://www.sogou.com/sie?'    #处理url携带的参数:封装到字典中    kw=input('enter a Word:')    param={        'query':kw    }    #对指定的url发起的请求对应的url是携带参数的,并且请求过程中处理了参数    response=requests.get(url=url,params=param,headers=headers)#headers是伪装 params输入关键词    page_text=response.text#以文本的形式输出    fileName=kw+'.html'#存储为网页形式    with open(fileName,'w+',encoding='utf-8') as fp:        fp.write(page_text)#写入fp    print(fileName,"保存成功!!")

Python Requests爬虫中如何求取关键词页面

以上是“Python Requests爬虫中如何求取关键词页面”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注编程网Python频道!

--结束END--

本文标题: Python Requests爬虫中如何求取关键词页面

本文链接: https://www.lsjlt.com/news/322694.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • Python Requests爬虫中如何求取关键词页面
    小编给大家分享一下Python Requests爬虫中如何求取关键词页面,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!需求:爬取搜狗首页的页面数据imp...
    99+
    2023-06-29
  • PythonRequests爬虫之求取关键词页面详解
    目录需求:爬取搜狗首页的页面数据使用UA伪装 求取关键词页面总结需求:爬取搜狗首页的页面数据 import requestsif __name__=='__main__': #...
    99+
    2022-11-13
  • python爬虫中如何爬取网页新闻内容
    小编给大家分享一下python爬虫中如何爬取网页新闻内容,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!python可以做什么Python是一种编程语言,内置了许多...
    99+
    2023-06-14
  • Python爬虫如何爬取网页中所有的url
    这篇文章主要介绍Python爬虫如何爬取网页中所有的url,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!python可以做什么Python是一种编程语言,内置了许多有效的工具,Python几乎无所不能,该语言通俗易懂...
    99+
    2023-06-14
  • 如何解决Python爬取网页时请求中收到响应400的问题
    这篇文章将为大家详细讲解有关如何解决Python爬取网页时请求中收到响应400的问题,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一般情况下抓取网页时找到url中可以从 post 请求中获取数据,但得到的...
    99+
    2023-06-20
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作