iis服务器助手广告
返回顶部
首页 > 资讯 > 后端开发 > PHP编程 >一个PHP实现的轻量级简单爬虫
  • 125
分享到

一个PHP实现的轻量级简单爬虫

php爬虫开发语言 2023-08-31 05:08:47 125人浏览 薄情痞子
摘要

最近需要收集资料,在浏览器上用另存为的方式实在是很麻烦,而且不利于存储和检索。所以自己写了一个小爬虫,在网上爬东西,迄今为止,已经爬了近百 万张网页。现在正在想办法着手处理这些数据。 爬虫的结构: 爬

最近需要收集资料,在浏览器上用另存为的方式实在是很麻烦,而且不利于存储和检索。所以自己写了一个小爬虫,在网上爬东西,迄今为止,已经爬了近百 万张网页。现在正在想办法着手处理这些数据。

爬虫的结构:
爬虫的原理其实很简单,就是分析下载的页面,找出其中的连接,然后再下载这些链接,再分析再下载,周而复始。在数据存储方面,数据库是首选,便于检索,而 开发语言,只要支持正则表达式就可以了,数据库我选择了Mysql,所以,开发脚本我选择了PHP。它支持perl兼容正则表达式,连接mysql很方 便,支持Http下载,而且windows系统和linux系统都可以部署。

正则表达式:
正则表达式是处理文字的基本工具,要取出html中的链接和图片,使用的正则表达式如下。
代码如下:

 "#]+href=(['\"])(.+)\\1#isU"   处理链接    "#]+src=(['\"])(.+)\\1#isU" 处理图片

其他问题:
写爬虫还需要注意的一个问题是,对于已经下载过的url,不能重复进行下载,而有些网页的链接会形成环路,所以需要处理这个问题,我的处理方法是计算已经 处理的url的MD5 值,并存入数据库,这样就可以检验是否已经下载过。当然还有更好的算法,有兴趣的话,可以在网上找一下。

相关协议:
爬虫也有自己的协议,有个robots.txt文件定义了那些是网站允许遍历的,但是由于我的时间有限,没有实现这个功能。

其他说明:
php支持类编程,我写的爬虫主要的类.
1.url处理WEB_site_info,主要用处理url,分析域名等。
2.数据库操作mysql_insert.php,处理和数据库相关的操作。
3.历史记录处理,记录已经处理的url。
4.爬虫类。

存在的问题和不足

这个爬虫在小数据量的情况下,运行良好,但是在大数据量的情况下,历史记录处理类的效率就不是很高,通过在数据库结构中,对相关字段进行了索引,速度有了 提高,但是需要不断得读取数据,可能和php本身的array实现有关系,如果一次加载10万条历史记录,速度非常慢。
不支持多线程,每次只能处理一个url。
php运行本身有内存使用量限制
使用的时候,先在mysql中创建net_spider数据库,然后用db.sql创建相关表。再在config.php中设置mysql 的用户名口令。
最后
代码如下:

php -f spider.php 深度(数值) url

就可以开始工作。如
代码如下:
php -f spider.php 20

现在感觉下来,其实做个爬虫没那么复杂,难的是数据的存储和检索。我现在的数据库,最大一个数据表已经15G,正在想办处理这些数据,mysql进 行查询已经感觉有点力不从心了。这点上还真佩服Google

<?php#加载页面function curl_get($url){    $ch=curl_init();    curl_setopt($ch,CURLOPT_URL,$url);    curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);    curl_setopt($ch,CURLOPT_HEADER,1);    $result=curl_exec($ch);    $code=curl_getinfo($ch,CURLINFO_HTTP_CODE);    if($code!='404' && $result){     return $result;    }    curl_close($ch);}#获取页面url链接function get_page_urls($spider_page_result,$base_url){  $get_url_result=preg_match_all("/<[a|A].*?href=[\'\"]{0,1}([^>\'\"\]*).*?>/",$spider_page_result,$out);  if($get_url_result){    return $out[1];  }else{    return;  }}#相对路径转绝对路径function xdtojd($base_url,$url_list){ if(is_array($url_list)){  foreach($url_list as $url_item){    if(preg_match("/^(http:\/\/|https:\/\/|javascript:)/",$url_item)){      $result_url_list[]=$url_item;    }else {     if(preg_match("/^\//",$url_item)){      $real_url = $base_url.$url_item;     }else{      $real_url = $base_url."/".$url_item;     }     #$real_url = 'http://www.sumpay.cn/'.$url_item;      $result_url_list[] = $real_url;     }  }   return $result_url_list; }else{   return; }}#删除其他站点urlfunction other_site_url_del($jd_url_list,$url_base){ if(is_array($jd_url_list)){  foreach($jd_url_list as $all_url){    echo $all_url;    if(strpos($all_url,$url_base)===0){     $all_url_list[]=$all_url;    }    }  return $all_url_list; }else{  return; }}#删除相同URLfunction url_same_del($array_url){   if(is_array($array_url)){     $insert_url=array();     $pizza=file_get_contents("/tmp/url.txt");     if($pizza){        $pizza=explode("\r\n",$pizza);        foreach($array_url as $array_value_url){         if(!in_array($array_value_url,$pizza)){          $insert_url[]=$array_value_url;          }        }        if($insert_url){           foreach($insert_url as $key => $insert_url_value){             #这里只做了参数相同去重处理             $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);             foreach($pizza as $pizza_value){                $update_pizza_value=preg_replace('/=[^&]*/','=leesec',$pizza_value);                if($update_insert_url==$update_pizza_value){                   unset($insert_url[$key]);                   continue;                }             }           }        }          }else{        $insert_url=array();        $insert_new_url=array();        $insert_url=$array_url;        foreach($insert_url as $insert_url_value){         $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);         $insert_new_url[]=$update_insert_url;          }        $insert_new_url=array_unique($insert_new_url);        foreach($insert_new_url as $key => $insert_new_url_val){          $insert_url_bf[]=$insert_url[$key];        }         $insert_url=$insert_url_bf;     }     return $insert_url;   }else{    return;    }}  $current_url=$argv[1];$fp_puts = fopen("/tmp/url.txt","ab");//记录url列表 $fp_gets = fopen("/tmp/url.txt","r");//保存url列表 $url_base_url=parse_url($current_url);if($url_base_url['scheme']==""){  $url_base="http://".$url_base_url['host'];}else{  $url_base=$url_base_url['scheme']."://".$url_base_url['host'];}do{  $spider_page_result=curl_get($current_url);  #var_dump($spider_page_result);  $url_list=get_page_urls($spider_page_result,$url_base);  #var_dump($url_list);  if(!$url_list){   continue;  }  $jd_url_list=xdtojd($url_base,$url_list);  #var_dump($jd_url_list);  $result_url_arr=other_site_url_del($jd_url_list,$url_base);  var_dump($result_url_arr);  $result_url_arr=url_same_del($result_url_arr);   #var_dump($result_url_arr);   if(is_array($result_url_arr)){     $result_url_arr=array_unique($result_url_arr);       foreach($result_url_arr as $new_url) {          fputs($fp_puts,$new_url."\r\n");        }  }}while ($current_url = fgets($fp_gets,1024));//不断获得url preg_match_all("/]+href=[\"']([^\"']+)[\"'][^>]+>/",$spider_page_result,$out);# echo a href#var_dump($out[1]);?>

来源地址:https://blog.csdn.net/D0126_/article/details/129793772

--结束END--

本文标题: 一个PHP实现的轻量级简单爬虫

本文链接: https://www.lsjlt.com/news/384219.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 一个PHP实现的轻量级简单爬虫
    最近需要收集资料,在浏览器上用另存为的方式实在是很麻烦,而且不利于存储和检索。所以自己写了一个小爬虫,在网上爬东西,迄今为止,已经爬了近百 万张网页。现在正在想办法着手处理这些数据。 爬虫的结构: 爬...
    99+
    2023-08-31
    php 爬虫 开发语言
  • 怎么使用PHP实现轻量级简单爬虫
    本篇内容介绍了“怎么使用PHP实现轻量级简单爬虫”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!爬虫的结构:爬虫的原理其实很简单,就是分析下载...
    99+
    2023-07-05
  • PHP实现简单爬虫的方法
    PHP实现简单爬虫的方法,php实现爬虫 本文实例讲述了PHP实现简单爬虫的方法。分享给大家供大家参考。具体如下: ...
    99+
    2023-09-08
    php 爬虫 开发语言
  • java Spring Boot2.7实现一个简单的爬虫功能
    首先 我们要在 pom.xml 中注入Jsoup 这是一个简单的java爬虫框架 org.jsoup jsoup 1.14.1 然后这里我们直接用main吧 做简单一点 我们创建一...
    99+
    2023-10-03
    java spring boot 爬虫
  • 一个简单的python爬虫,爬取知乎
    一个简单的python爬虫,爬取知乎主要实现 爬取一个收藏夹 里 所有问题答案下的 图片文字信息暂未收录,可自行实现,比图片更简单具体代码里有详细注释,请自行阅读项目源码:# -*- coding:utf-8 ...
    99+
    2023-06-02
  • java实现一个简单的网络爬虫代码示例
    目前市面上流行的爬虫以python居多,简单了解之后,觉得简单的一些页面的爬虫,主要就是去解析目标页面(html)。那么就在想,java有没有用户方便解析html页面呢?找到了一个jsoup包,一个非常方便解析html的工具呢。使用方式也非...
    99+
    2023-05-30
    网络爬虫 java jsoup
  • 如何在Python中实现一个简单的爬虫程序
    如何在Python中实现一个简单的爬虫程序随着互联网的发展,数据已成为当今社会最宝贵的资源之一。而爬虫程序则成为了获取互联网数据的重要工具之一。本文将介绍如何在Python中实现一个简单的爬虫程序,并提供具体的代码示例。确定目标网站在开始编...
    99+
    2023-10-22
    Python 程序 爬虫
  • python实现简单爬虫--爬图片
    首先有两个功能需求:第一:获取到要爬的页面html内容;第二:使用正则表达式进行匹配并进行保存到本地。#!/usr/bin/env python #encoding:utf-8 import urllib import re def get...
    99+
    2023-01-31
    爬虫 简单 图片
  • JAVA超级简单的爬虫实例讲解
    爬取整个页面的数据,并进行有效的提取信息,注释都有就不废话了:public class Reptile { public static void main(String[] args) { String url1=""; //传入...
    99+
    2023-05-30
    java 爬虫 ava
  • 分享一个简单的java爬虫框架
    反复给网站编写不同的爬虫逻辑太麻烦了,自己实现了一个小框架可以自定义的部分有:请求方式(默认为Getuser-agent为谷歌浏览器的设置),可以通过实现RequestSet接口来自定义请求方式储存方式(默认储存在f盘的html文件夹下),...
    99+
    2023-05-30
    java 爬虫框架 ava
  • 如何利用C++实现一个简单的网页爬虫程序?
    如何利用C++实现一个简单的网页爬虫程序?简介:互联网是一个信息的宝库,而通过网页爬虫程序可以轻松地从互联网上获取大量有用的数据。本文将介绍如何使用C++编写一个简单的网页爬虫程序,以及一些常用的技巧和注意事项。一、准备工作安装C++编译器...
    99+
    2023-11-04
    C++ 网页爬虫 程序实现
  • 怎么使用nodejs实现一个简单的网页爬虫功能
    这篇文章主要介绍了怎么使用nodejs实现一个简单的网页爬虫功能,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。网页源码  使用http.get()方法获取网页源码,以hao1...
    99+
    2023-06-06
  • node.js做一个简单的爬虫案例教程
    准备工作 首先,你需要下载 nodejs,这个应该没啥问题吧 原文要求下载 webstrom,我电脑上本来就有,但其实不用下载,完全在命令行里面操作就行 创建工程...
    99+
    2024-04-02
  • 使用Python实现简单的爬虫框架
    目录一、请求网页二、解析 HTML三、构建爬虫框架爬虫是一种自动获取网页内容的程序,它可以帮助我们从网络上快速收集大量信息。在本文中,我们将学习如何使用 Python 编写一个简单的...
    99+
    2023-05-19
    Python如何实现爬虫框架 Python爬虫框架 Python爬虫
  • 怎么用.net core 实现简单爬虫
    本篇内容主要讲解“怎么用.net core 实现简单爬虫”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用.net core 实现简单爬虫”吧!一.介绍一个Http请求框架HttpCode.C...
    99+
    2023-06-19
  • node.js实现简单爬虫示例详解
    目录node.js实现简单爬虫第一步第二步爬虫结果小结:node.js实现简单爬虫 工具:cheerio cheerio 是 nodejs 特别为服务端定制的,能够快速灵活的对 JQ...
    99+
    2023-05-17
    node.js简单爬虫 node.js爬虫
  • Node.js简单实现爬虫代码怎么写
    以下是一个简单的Node.js爬虫代码示例: const request = require('request'); const c...
    99+
    2023-10-26
    Node.js
  • python爬虫入门教程(非常详细),超级简单的Python爬虫教程
    一、基础入门 1.1什么是爬虫 爬虫(spider,又网络爬虫),是指向网站/网络发起请求,获取资源后分析并提取有用数据的程序。 从技术层面来说就是 通过程序模拟浏览器请求站点的行为,把站点返回的HT...
    99+
    2023-09-01
    python 爬虫 python爬虫 爬虫入门 python零基础
  • 【用Vscode实现简单的python爬虫】从安装到配置环境变量到简单爬虫以及python中pip和request,bs4安装
    第一步:安装python包  可以默认,也可以选择自己想要安装的路径 python下载资源链接: Download Python | Python.org 第二步:配置python环境变量,找到我的电脑->属性->高级->环境变量 找...
    99+
    2023-09-24
    vscode python ide
  • 使用maven实现有关Jsoup简单爬虫的步骤
    目录一、Jsoup的简介二、我们可以利用Jsoup做什么三、利用Jsoup爬取某东示例四、Jsoup用法五、总结一、Jsoup的简介 jsoup 是一款Java 的HTML解析器,可...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作