广告
返回顶部
首页 > 资讯 > 后端开发 > Python >python 抓取美女图片
  • 827
分享到

python 抓取美女图片

美女图片python 2023-01-31 06:01:59 827人浏览 泡泡鱼

Python 官方文档:入门教程 => 点击学习

摘要

之前见过别人写的抓取图片的python脚本,自己之前用正则写过,最近看到beautifulsoup 所以拿来练练手# -*- coding:utf8 -*- from bs4 import BeautifulSoup import os, 

之前见过别人写的抓取图片的python脚本,自己之前用正则写过,最近看到beautifulsoup 所以拿来练练手

# -*- coding:utf8 -*-
from bs4 import BeautifulSoup
import os, sys, urllib2,time,random
 
path = os.getcwd()                     
new_path = os.path.join(path,u'sexy')
if not os.path.isdir(new_path):
    os.mkdir(new_path)
 
def page_loop(page=1):
    url = 'Http://sexy.faceks.com/tag/美女摄影?page=%s' % page
    print url
    content = urllib2.urlopen(url)
    soup = BeautifulSoup(content)
    my_girl = soup.findAll('a',attrs={'class':'img'})#先获取首页每个美女图片的进入链接
    for girl in my_girl:
        #link = girl.get('src')
        girlink = girl.get('href') 
        print girlink
        response = urllib2.urlopen(girlink)
        per_soup = BeautifulSoup(response)
        img_urls = per_soup.findAll('img',attrs={'class':None})
        #print img_urls
        for img_url in img_urls: #获取单个美女的所有图片链接 
            girlurl = img_url.get('src') 
            print girlurl 
            content2 = urllib2.urlopen(girlurl).read()
            with open(u'sexy'+'/'+time.strftime('%H%M%S')+str(random.randint(1000,9999)),'wb') as code:
                code.write(content2)
page_loop()


效果图如下:

wKioL1YJDgDDT0EUAALvokfzBTI986.jpg

# -*- coding:utf8 -*-
# __author__ = 'jony'
from bs4 import BeautifulSoup
import os, sys, urllib2,time,random
import re
 
def GetUrl():
    url = 'http://www.27270.com/ent/meinvtupian/'
    header = {'User-Agent' : 'Mozilla/5.0 (compatible; MSIE 9.0; windows NT 6.1; WOW64; Trident/5.0)'}
    request = urllib2.Request(url,None,header)
    response = urllib2.urlopen(request,None,timeout=10).read()
    #pattern = re.compile(r'<a href="(.*)" title="(.*)"> class="MMPic"><i><img src="(.*)" width="190" height="280"  alt=.*')#在一行无法正则获取,所以使用BeautifulSoup
    soup = BeautifulSoup(response,"html.parser", from_encoding="gb18030") #WARNING:root:Some characters could not be decoded, and were replaced with REPLACEMENT CHARACTER.所以gb18030
    #soup = BeautifulSoup(response,from_encoding='gb2312')
    #过滤 div为MeinvTuPianBox
    content = soup.find_all('div',attrs={'class':'MeinvTuPianBox'})
    #定义列表
    urls = []
    #titles = []
    #picurls = []
    for i in content:
        #再次过滤 MMpic 注意是a 不是div了
        for j in i.findAll('a',attrs={'class':'MMPic'}):
            urls.append(j.get('href'))
            #titles.append(j.get('title'))    
    return urls
def GetImage(*urls):
    header = {'User-Agent' : 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; WOW64; Trident/5.0)'}
    pattern = re.compile(r'<img alt=".*" src="(.*)" />')
    for url in urls:
        print url
        #获取初始的页面的图片
        try:
                 request = urllib2.Request(url,None,header)
                 response = urllib2.urlopen(request).read()
                 girlink = pattern.search(response).group(1)
                 print girlink  
                 req = urllib2.Request(girlink,None,header)
                 res = urllib2.urlopen(req,None,timeout=10).read()
                 with open(u'PICTURE'+'/'+time.strftime('%H%M%S')+str(random.randint(1000,9999))+u'.jpg','wb') as code:
                     code.write(res)
        except:
             continue          
        #http://www.27270.com/ent/meinvtupian/2016/156239_20.html 第二十张图片的网址
        orignurl=url.split('.html')[0]
        for i in range(2,15):
            picurl = '%s_%s.html' % (orignurl,i)
            #print picurl
            try:
                request = urllib2.Request(picurl,None,header)
                response = urllib2.urlopen(request).read()
                girlink = pattern.search(response).group(1)
                print girlink  
                req = urllib2.Request(girlink,None,header)
                res = urllib2.urlopen(req,None,timeout=10).read()
                with open(u'PICTURE'+'/'+time.strftime('%H%M%S')+str(random.randint(1000,9999))+u'.jpg','wb') as code:
                    code.write(res)
            except:
                continue                 
if __name__ == '__main__':
    path = os.getcwd()                     
    new_path = os.path.join(path,u'PICTURE')
    if not os.path.isdir(new_path):
        os.mkdir(new_path)
    links = GetUrl()
    #print type(links)
    GetImage(*links)


--结束END--

本文标题: python 抓取美女图片

本文链接: https://www.lsjlt.com/news/190322.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • python 抓取美女图片
    之前见过别人写的抓取图片的python脚本,自己之前用正则写过,最近看到beautifulsoup 所以拿来练练手# -*- coding:utf8 -*- from bs4 import BeautifulSoup import os, ...
    99+
    2023-01-31
    美女 图片 python
  • Python制作爬虫抓取美女图
      作为一个新世纪有思想有文化有道德时刻准备着的潘磕星嗄辏谙衷谡庋桓錾缁嶂校奶畚掖舐サ种拼蟀俣鹊那疤嵯拢皇露仙贤涔Y看看斗鱼翻翻美女图片那是必不可少的,可是美图虽多翻页费劲!今天我们就搞个爬虫把美图都给扒下...
    99+
    2022-06-04
    爬虫 美女图 Python
  • python爬取网站美女图片
    今天周五,项目刚刚上线完,有些时间,闲着无聊,继续复习爬虫,这次打算爬取网站的美女图片。得先找到目标,然后目标网站还不会反爬虫,因为自己只是小白,好了开始。寻找目标,发现了目标,哈哈 http://www.meizitu.com 里面图片按...
    99+
    2023-01-31
    美女 图片 网站
  • 教你使用Python提取视频中的美女图片
    目录前言安装模块you-getOpenCV结束前言 人类都是视觉动物,不管是男生还是女生看到漂亮的小姐姐、小哥哥就想截图保存下来。可是截图会对画质会产生损耗,截取的 画面不规整,像素...
    99+
    2022-11-10
  • python多任务抓取图片
    import re import urllib.request import gevent def download(image_download, images_path,i): headers = {"User-Agen...
    99+
    2023-01-30
    图片 python
  • 只用50行Python代码爬取网络美女高清图片
    目录一、技术路线二、获取网页信息三、网页爬取分析四、网页详情页链接获取五、依据图片链接保存图片六、main()函数七、完整代码一、技术路线 requests:网页请求 Beautif...
    99+
    2022-11-12
  • python制作花瓣网美女图片爬虫
    花瓣图片的加载使用了延迟加载的技术,源代码只能下载20多张图片,修改后基本能下载所有的了,只是速度有点慢,后面再优化下 import urllib, urllib2, re, sys, os,reque...
    99+
    2022-06-04
    爬虫 花瓣 美女
  • 利用python抓取网页图片
        近期在家想看华为官方的【IP,图话技术,微图】系列文档,奈何家里是长宽,基本打不开页面,刷新多次,心力憔悴。▎下图感受下:    突然想起上次华为云大会送了台云服务器,一直被我用来做linux实验机。于是,突发奇想,利用python...
    99+
    2023-01-31
    网页 图片 python
  • python怎么抓取图片数据
    要抓取图片数据,你可以使用Python的requests库和BeautifulSoup库。下面是一个简单的示例代码,可以帮助你抓取网...
    99+
    2023-08-17
    python
  • 05_多协程爬取斗鱼高颜值美女图片-2.
    1 import requests 2 import re 3 # from bs4 import BeautifulSoup 4 from urllib import request 5 # import threading...
    99+
    2023-01-30
    美女 图片 多协程爬取斗鱼高颜值
  • Python抓取网页图片难点分析
    目录一、网页图片抓取时代背景二、网页图片抓取难点处理1、图片地址存放位置不同2、图片地址格式解析处理3、防止IP被封可以采用代理Ip机制三、网页图片抓取场景分类一、网页图片抓取时代背...
    99+
    2023-01-11
    Python抓取网页图片 Python抓取图片 Python抓取网页
  • PHP中怎么抓取图片
    这篇文章给大家介绍PHP中怎么抓取图片,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。< php  // 变量说明:   // $url 是远程...
    99+
    2023-06-17
  • 使用Python的Scrapy框架十分钟爬取美女图
    简介 scrapy 是一个 python 下面功能丰富、使用快捷方便的爬虫框架。用 scrapy 可以快速的开发一个简单的爬虫,官方给出的一个简单例子足以证明其强大: 快速开发 下面开始10分钟倒计时: ...
    99+
    2022-06-04
    十分钟 美女图 框架
  • Python 多线程抓取图片效率对比
    目的: 是学习python 多线程的工作原理,及通过抓取400张图片这种IO密集型应用来查看多线程效率对比 import requests import urlparse import os imp...
    99+
    2022-06-04
    多线程 效率 图片
  • python 基于AioHttp 异步抓取火星图片
    目录创建aiohttp应用程序 运行应用程序 使用NASA API 获取NASA API密钥 验证图像 总结 翻译:大江狗 原文链接:https://pfertyk.me/2017/...
    99+
    2022-11-11
  • Python抓取今日头条街拍图片数据
    目录(1)抓取今日头条街拍图片(2)分析今日头条街拍图片结构(3)按功能不同编写不同方法组织代码(4)抓取20page今日头条街拍图片数据(1)抓取今日头条街拍图片 (2)分析今日...
    99+
    2022-11-12
  • Python如何爬取全网美女写真
    这期内容当中小编将会给大家带来有关Python如何爬取全网美女写真,文章内容丰富且以专业的角度为大家分析和叙述,阅读完这篇文章希望大家可以有所收获。前言深夜放福利,老司机带你放飞自我,利用Python这个强大的胶水语言,帮助你实现梦想,可以...
    99+
    2023-06-02
  • python抓取网页中图片并保存到本地
    在上篇文章给大家分享PHP源码批量抓取远程网页图片并保存到本地的实现方法,感兴趣的朋友可以点击了解详情。 #-*-coding:utf-8-*- import os import uuid impor...
    99+
    2022-06-04
    并保存 网页 图片
  • python基于AioHttp异步抓取火星图片的案例
    这篇文章主要介绍python基于AioHttp异步抓取火星图片的案例,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!创建aiohttp应用程序让我们从一个简单的应用程序开始,只是为了启动和运行aiohttp。首先,创建...
    99+
    2023-06-14
  • Python爬虫入门案例之回车桌面壁纸网美女图片采集
    目录知识点环境目标网址:爬虫代码导入模块发送网络请求获取网页源代码提取每个相册的详情页链接地址替换所有的图片链接 换成大图保存图片 图片名字翻页爬取结果知识点 reques...
    99+
    2022-11-12
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作