广告
返回顶部
首页 > 资讯 > 后端开发 > Python >一起学爬虫——一步一步打造爬虫代理池
  • 148
分享到

一起学爬虫——一步一步打造爬虫代理池

爬虫 2023-01-30 23:01:20 148人浏览 泡泡鱼

Python 官方文档:入门教程 => 点击学习

摘要

最近在使用爬虫爬取数据时,经常会返回403代码,大致意思是该IP访问过于频繁,被限制访问。限制IP访问网站最常用的反爬手段了,其实破解也很容易,就是在爬取网站是使用代理即可,这个IP被限制了,就使用其他的IP。对于高大上的公司来说,他们基

最近在使用爬虫爬取数据时,经常会返回403代码,大致意思是该IP访问过于频繁,被限制访问。限制IP访问网站最常用的反爬手段了,其实破解也很容易,就是在爬取网站是使用代理即可,这个IP被限制了,就使用其他的IP。对于高大上的公司来说,他们基本都使用收费的代理,基本不会有什么问题,比较稳定。像我这样的矮矬穷,肯定是用不起收费的代理。一般都是使用国内免费的代理,网上也有很多提供免费的代理。

很多人都是从网上爬取一批免费的代理IP,存放在存储媒介中,例如excel文件或者数据库。定时维护代理,保证代理可用。这个做法有个缺点,有些机器上并没有装有excel或者MysqlRedis数据库,这就导致了的代理池无法正常使用。

我之前是做java开发的,经常会把一些常用的数据放在ArrayList中,使用起来非常方便,效率高,因此借鉴之前在java方面的经验,将代理IP爬取下来存放在list列表中中,将list列表当做一个代理池,经常维护这个池里的代理。

我经常爬取免费代理的网站xicidaili
swei360等,这些免费的代理足够我使用了,能够应付大多数的爬虫工作。爬取过程需要用到requests和pyquery库,没有安装的同学自行安装。

首先介绍下爬取xicidaili网站的过程,
要先定义一个方法用于抓取xicidaili网站的,参数有两个,一个是url,另外一个是要爬取代理网页的页数,也就是要爬几页,方法如下:

def get_xicidaili_proxy(url,page):
    for i in range(1,page):
        headers = {
            "User-Agent": "Mozilla/5.0 (windows NT 10.0; WOW64) AppleWEBKit/537.36 (Khtml, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"}
        response = requests.get(url + str(i), headers=headers)

        html = response.text
        doc = pq(html)
        ip_list = doc('#ip_list')('tr:gt(0)').items()
        for item in ip_list:
            ip = item.find('td:nth-child(2)').text()
            port = item.find('td:nth-child(3)').text()
            Http_type = item.find('td:nth-child(6)').text()
            proxy_ip = http_type + "://" + ip + ":" + port
            if http_type == 'HTTP':
                http_proxy_pool.append(proxy_ip)
            elif http_type == 'https':
                https_proxy_pool.append(proxy_ip)
            # print(proxy_ip)

定义了http_proxy_pool和https_proxy_pool两个list变量,用于存储http类型和https类型的代理。 使用PyQuery根据CSS伪选择器提取出ip,端口和http类型信息,并按照http:// + ip+port的方式组合成一个字符串,存储在已经定义好的http_proxy_tool和https_proxy_pool变量中。

爬取swei360网站代理的方法就不贴出来了,原理和爬取xicidaili网站是一样的。

一个代理在使用之前要判断是否可用,我们使用request的get请求的返回代码判断代理是否可用,返回200,就说明代理可用,返回其他的代码就表示代理不可用,代码如下:

def detect_proxy(test_url,http_type,proxy):
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36 SE 2.X MetaSr 1.0"}
    proxy={
        http_type : proxy
    }
    try:
        response = requests.get(test_url,proxies=proxy,headers=headers)
        if response.status_code in [200]:
            print('代理可用',proxy)
            return True
        else:
            print('代理不可用', proxy);
            delete_proxy(http_type,proxy)
            return False
    except(requests.exceptions.ProxyError,RequestException):
        print('代理不可用', proxy)
        delete_proxy(http_type, proxy)
        return False

定义了detect_proxy方法用于检测代理是否可用,有三个参数,分别是测试网址,代理类型(http和https)和代理IP。当requests的请求返回200代码时,就表示该代理可用,返回True,否则就是不可用,返回False。当遇到request异常或者其他的错误也认为代理不可用,返回False。对于不可用的代理,要从代理池中删除。

从代理池中获取代理时,我们使用的是从代理池中随机返回一个代理,这样就避免经常使用一个代理,从而遭到拒绝访问。代码如下:

def get_https_proxy():
    proxy_ip = random.choice(https_proxy_pool)
    return proxy_ip

def get_http_proxy():
    proxy_ip = random.choice(http_proxy_pool)
    return proxy_ip

为了保证代理的可用,当检测到一个代理不可用时,要及时的清理掉。就是从http_proxy_pool和https_proxy_pool列表中删除。

一个简单的爬虫代理池已经搭建好,总结下爬虫代理池搭建的过程:

  • 从免费的代理网站上爬取代理信息,存放在列表中。
  • 提供从代理池中随机获取代理的方法。http类型的网站要使用http类型的代理,https类型的网站要使用https类型的代理,因此分别提供获取http和https类型代理的方法。
  • 提供检测代理是否可用的方法,代理可用返回True,不可用返回False。
  • 提供删除代理的方法。

这个代理池其实相当的简单,有一个弊端就是在检测代理是否可用时,如果返回的不是200代码就认为代理不可用,返回其他代码的情况有很多,例如网络不可用、测试网站不可访问等。比较好的做法是给每个代理设置一个分值,例如10分,如果检测到不可用就减1,当分数为0时,就确定该代理不可用,直接从代理池中移除。检测到代理可用,就将分数设为10分。这种做法给每个检测到不可用代理一个改邪归正的机会,不至于一刀切的抛弃掉。

完整代码请加我的公众号,回复"代理"获取。

--结束END--

本文标题: 一起学爬虫——一步一步打造爬虫代理池

本文链接: https://www.lsjlt.com/news/180473.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 一起学爬虫——一步一步打造爬虫代理池
    最近在使用爬虫爬取数据时,经常会返回403代码,大致意思是该IP访问过于频繁,被限制访问。限制IP访问网站最常用的反爬手段了,其实破解也很容易,就是在爬取网站是使用代理即可,这个IP被限制了,就使用其他的IP。对于高大上的公司来说,他们基...
    99+
    2023-01-30
    爬虫
  • 一起学爬虫——使用Beautiful S
    要想学好爬虫,必须把基础打扎实,之前发布了两篇文章,分别是使用XPATH和requests爬取网页,今天的文章是学习Beautiful Soup并通过一个例子来实现如何使用Beautiful Soup爬取网页。 什么是Beautiful ...
    99+
    2023-01-30
    爬虫 Beautiful
  • 一起学爬虫——使用xpath库爬取猫眼电
    之前分享了一篇使用requests库爬取豆瓣电影250的文章,今天继续分享使用xpath爬取猫眼电影热播口碑榜 XPATH语法 XPATH(XML Path Language)是一门用于从XML文件中查找信息的语言。通用适用于从HTML文...
    99+
    2023-01-30
    爬虫 猫眼 xpath
  • 打造一个健壮高效的网络爬虫
    以下内容转自爬虫界大佬崔庆才的文章,传送门   整个分享的主题叫做《健壮高效的网络爬虫》,本次分享从抓取、解析、存储、反爬、加速五个方面介绍了利用 Python 进行网络爬虫开发的相关知识点和技巧,介绍了不同场景下如何采取不同措施高效地进...
    99+
    2023-01-30
    爬虫 高效 健壮
  • Python实现的异步代理爬虫及代理池
    使用python asyncio实现了一个异步代理池,根据规则爬取代理网站上的免费代理,在验证其有效后存入redis中,定期扩展代理的数量并检验池中代理的有效性,移除失效的代理。同时用aiohttp实现了一...
    99+
    2022-06-04
    爬虫 Python
  • Python爬虫代理池搭建的方法步骤
    搭建Python爬虫代理池的方法步骤如下:1. 安装所需的依赖库:首先,确保你已经安装了Python和pip。然后使用pip安装所需的库,如requests、beautifulsoup、flask等。2. 获取代理IP:你可以从一些免费...
    99+
    2023-08-11
    Python
  • 如何在python中使用proxybroker构建一个爬虫免费IP代理池
    今天就跟大家聊聊有关如何在python中使用proxybroker构建一个爬虫免费IP代理池,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。python可以做什么Python是一种编程...
    99+
    2023-06-06
  • 如何选择一款好的爬虫代理IP软件
    这篇文章给大家分享的是有关如何选择一款好的爬虫代理IP软件的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、一款好的爬虫软件必须能够在大多数网站上收集数据。二、操作简单。使用起来简单方便。即使不学编程知识,看不懂...
    99+
    2023-06-20
  • python爬虫实战之制作属于自己的一个IP代理模块
    目录一、使用PyChram的正则二、制作一个随机User-Agent模块三、最终实践3.1 爬取快代理上的ip3.2 验证爬取到的ip是否可用3.3 实战:利用爬取到的ip访问CSDN博客网址1000次四、总结一、使...
    99+
    2022-06-02
    Python自制IP代理模块 python ip代理
  • 大规模异步新闻爬虫中如何实现一个更好的网络请求函数
    这篇文章将为大家详细讲解有关大规模异步新闻爬虫中如何实现一个更好的网络请求函数,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。downloader 的实现import requestsimport...
    99+
    2023-06-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作