iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > PHP编程 >怎么使用PHP实现轻量级简单爬虫
  • 375
分享到

怎么使用PHP实现轻量级简单爬虫

2023-07-05 20:07:43 375人浏览 八月长安
摘要

本篇内容介绍了“怎么使用PHP实现轻量级简单爬虫”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!爬虫的结构:爬虫的原理其实很简单,就是分析下载

本篇内容介绍了“怎么使用PHP实现轻量级简单爬虫”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!

爬虫的结构:爬虫的原理其实很简单,就是分析下载的页面,找出其中的连接,然后再下载这些链接,再分析再下载,周而复始。在数据存储方面,数据库是首选,便于检索,而 开发语言,只要支持正则表达式就可以了,数据库我选择了mysql,所以,开发脚本我选择了php。它支持perl兼容正则表达式,连接Mysql很方 便,支持Http下载,而且windows系统和linux系统都可以部署。

正则表达式:正则表达式是处理文字的基本工具,要取出html中的链接和图片,使用的正则表达式如下。代码如下:

 "#<a[^>]+href=(['\"])(.+)\\1#isU"   处理链接
   "#<img[^>]+src=(['\"])(.+)\\1#isU" 处理图片

其他问题:写爬虫还需要注意的一个问题是,对于已经下载过的url,不能重复进行下载,而有些网页的链接会形成环路,所以需要处理这个问题,我的处理方法是计算已经 处理的url的MD5 值,并存入数据库,这样就可以检验是否已经下载过。当然还有更好的算法,有兴趣的话,可以在网上找一下。

相关协议:爬虫也有自己的协议,有个robots.txt文件定义了那些是网站允许遍历的,但是由于我的时间有限,没有实现这个功能。

其他说明:php支持类编程,我写的爬虫主要的类.1.url处理WEB_site_info,主要用处理url,分析域名等。2.数据库操作mysql_insert.php,处理和数据库相关的操作。3.历史记录处理,记录已经处理的url。4.爬虫类。

存在的问题和不足

这个爬虫在小数据量的情况下,运行良好,但是在大数据量的情况下,历史记录处理类的效率就不是很高,通过在数据库结构中,对相关字段进行了索引,速度有了 提高,但是需要不断得读取数据,可能和php本身的array实现有关系,如果一次加载10万条历史记录,速度非常慢。不支持多线程,每次只能处理一个url。php运行本身有内存使用量限制使用的时候,先在mysql中创建net_spider数据库,然后用db.sql创建相关表。再在config.php中设置mysql 的用户名口令。最后代码如下:

php -f spider.php 深度(数值) url

就可以开始工作。如代码如下:php -f spider.php 20

现在感觉下来,其实做个爬虫没那么复杂,难的是数据的存储和检索。我现在的数据库,最大一个数据表已经15G,正在想办处理这些数据,mysql进 行查询已经感觉有点力不从心了。这点上还真佩服Google

<?php
#加载页面
function curl_get($url){
   $ch=curl_init();
   curl_setopt($ch,CURLOPT_URL,$url);
   curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
   curl_setopt($ch,CURLOPT_HEADER,1);
   $result=curl_exec($ch);
   $code=curl_getinfo($ch,CURLINFO_HTTP_CODE);
   if($code!='404' && $result){
    return $result;
   }
   curl_close($ch);
}
#获取页面url链接
function get_page_urls($spider_page_result,$base_url){
 $get_url_result=preg_match_all("/<[a|A].*?href=[\'\"]{0,1}([^>\'\"\]*).*?>/",$spider_page_result,$out);
 if($get_url_result){
   return $out[1];
 }else{
   return;
 }
}
#相对路径转绝对路径
function xdtojd($base_url,$url_list){
if(is_array($url_list)){
 foreach($url_list as $url_item){
   if(preg_match("/^(http:\/\/|https:\/\/|javascript:)/",$url_item)){
     $result_url_list[]=$url_item;
   }else {
    if(preg_match("/^\//",$url_item)){
     $real_url = $base_url.$url_item;
    }else{
     $real_url = $base_url."/".$url_item;
    }
    #$real_url = 'http://www.sumpay.cn/'.$url_item;
    $result_url_list[] = $real_url;
   }
 }
  return $result_url_list;
}else{
  return;
}
}
#删除其他站点url
function other_site_url_del($jd_url_list,$url_base){
if(is_array($jd_url_list)){
 foreach($jd_url_list as $all_url){
   echo $all_url;
   if(strpos($all_url,$url_base)===0){
    $all_url_list[]=$all_url;
   }  
 }
 return $all_url_list;
}else{
 return;
}
}
#删除相同URL
function url_same_del($array_url){
  if(is_array($array_url)){
    $insert_url=array();
    $pizza=file_get_contents("/tmp/url.txt");
    if($pizza){
       $pizza=explode("\r\n",$pizza);
       foreach($array_url as $array_value_url){
        if(!in_array($array_value_url,$pizza)){
         $insert_url[]=$array_value_url;
        }
       }
       if($insert_url){
          foreach($insert_url as $key => $insert_url_value){
            #这里只做了参数相同去重处理
            $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
            foreach($pizza as $pizza_value){
               $update_pizza_value=preg_replace('/=[^&]*/','=leesec',$pizza_value);
               if($update_insert_url==$update_pizza_value){
                  unset($insert_url[$key]);
                  continue;
               }
            }
          }
       }    
    }else{
       $insert_url=array();
       $insert_new_url=array();
       $insert_url=$array_url;
       foreach($insert_url as $insert_url_value){
        $update_insert_url=preg_replace('/=[^&]*/','=leesec',$insert_url_value);
        $insert_new_url[]=$update_insert_url;  
       }
       $insert_new_url=array_unique($insert_new_url);
       foreach($insert_new_url as $key => $insert_new_url_val){
         $insert_url_bf[]=$insert_url[$key];
       }
       $insert_url=$insert_url_bf;
    }
    return $insert_url;
  }else{
   return;
  }
}
 
$current_url=$argv[1];
$fp_puts = fopen("/tmp/url.txt","ab");//记录url列表
$fp_gets = fopen("/tmp/url.txt","r");//保存url列表
$url_base_url=parse_url($current_url);
if($url_base_url['scheme']==""){
 $url_base="http://".$url_base_url['host'];
}else{
 $url_base=$url_base_url['scheme']."://".$url_base_url['host'];
}
do{
 $spider_page_result=curl_get($current_url);
 #var_dump($spider_page_result);
 $url_list=get_page_urls($spider_page_result,$url_base);
 #var_dump($url_list);
 if(!$url_list){
  continue;
 }
 $jd_url_list=xdtojd($url_base,$url_list);
 #var_dump($jd_url_list);
 $result_url_arr=other_site_url_del($jd_url_list,$url_base);
 var_dump($result_url_arr);
 $result_url_arr=url_same_del($result_url_arr);
 #var_dump($result_url_arr);
 if(is_array($result_url_arr)){
   $result_url_arr=array_unique($result_url_arr);
      foreach($result_url_arr as $new_url) {
        fputs($fp_puts,$new_url."\r\n");
      }
 }
}while ($current_url = fgets($fp_gets,1024));//不断获得url
preg_match_all("/<a[^>]+href=[\"']([^\"']+)[\"'][^>]+>/",$spider_page_result,$out);
# echo a href
#var_dump($out[1]);
?>

“怎么使用PHP实现轻量级简单爬虫”的内容就介绍到这里了,感谢大家的阅读。如果想了解更多行业相关的知识可以关注编程网网站,小编将为大家输出更多高质量的实用文章!

--结束END--

本文标题: 怎么使用PHP实现轻量级简单爬虫

本文链接: https://www.lsjlt.com/news/355204.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • 怎么使用PHP实现轻量级简单爬虫
    本篇内容介绍了“怎么使用PHP实现轻量级简单爬虫”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!爬虫的结构:爬虫的原理其实很简单,就是分析下载...
    99+
    2023-07-05
  • 一个PHP实现的轻量级简单爬虫
    最近需要收集资料,在浏览器上用另存为的方式实在是很麻烦,而且不利于存储和检索。所以自己写了一个小爬虫,在网上爬东西,迄今为止,已经爬了近百 万张网页。现在正在想办法着手处理这些数据。 爬虫的结构: 爬...
    99+
    2023-08-31
    php 爬虫 开发语言
  • 怎么用.net core 实现简单爬虫
    本篇内容主要讲解“怎么用.net core 实现简单爬虫”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么用.net core 实现简单爬虫”吧!一.介绍一个Http请求框架HttpCode.C...
    99+
    2023-06-19
  • PHP实现简单爬虫的方法
    PHP实现简单爬虫的方法,php实现爬虫 本文实例讲述了PHP实现简单爬虫的方法。分享给大家供大家参考。具体如下: ...
    99+
    2023-09-08
    php 爬虫 开发语言
  • 使用Python实现简单的爬虫框架
    目录一、请求网页二、解析 HTML三、构建爬虫框架爬虫是一种自动获取网页内容的程序,它可以帮助我们从网络上快速收集大量信息。在本文中,我们将学习如何使用 Python 编写一个简单的...
    99+
    2023-05-19
    Python如何实现爬虫框架 Python爬虫框架 Python爬虫
  • Node.js简单实现爬虫代码怎么写
    以下是一个简单的Node.js爬虫代码示例: const request = require('request'); const c...
    99+
    2023-10-26
    Node.js
  • 怎么使用nodejs实现一个简单的网页爬虫功能
    这篇文章主要介绍了怎么使用nodejs实现一个简单的网页爬虫功能,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。网页源码  使用http.get()方法获取网页源码,以hao1...
    99+
    2023-06-06
  • 使用maven实现有关Jsoup简单爬虫的步骤
    目录一、Jsoup的简介二、我们可以利用Jsoup做什么三、利用Jsoup爬取某东示例四、Jsoup用法五、总结一、Jsoup的简介 jsoup 是一款Java 的HTML解析器,可...
    99+
    2024-04-02
  • Java 使用maven实现Jsoup简单爬虫案例详解
    一、Jsoup的简介         jsoup 是一款Java 的HTML解析器,可直接解析某个UR...
    99+
    2024-04-02
  • 【用Vscode实现简单的python爬虫】从安装到配置环境变量到简单爬虫以及python中pip和request,bs4安装
    第一步:安装python包  可以默认,也可以选择自己想要安装的路径 python下载资源链接: Download Python | Python.org 第二步:配置python环境变量,找到我的电脑->属性->高级->环境变量 找...
    99+
    2023-09-24
    vscode python ide
  • 如何使用HttpClient和HtmlParser实现简易爬虫
    这篇文章给大家分享的是有关如何使用HttpClient和HtmlParser实现简易爬虫的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。   HttpClient 简介   H...
    99+
    2024-04-02
  • 怎么使用Java爬虫批量爬取图片
    本篇内容主要讲解“怎么使用Java爬虫批量爬取图片”,感兴趣的朋友不妨来看看。本文介绍的方法操作简单快捷,实用性强。下面就让小编来带大家学习“怎么使用Java爬虫批量爬取图片”吧!爬取思路对于这种图片的获取,其实本质上就是就是文件的下载(H...
    99+
    2023-07-06
  • 如何利用C++实现一个简单的网页爬虫程序?
    如何利用C++实现一个简单的网页爬虫程序?简介:互联网是一个信息的宝库,而通过网页爬虫程序可以轻松地从互联网上获取大量有用的数据。本文将介绍如何使用C++编写一个简单的网页爬虫程序,以及一些常用的技巧和注意事项。一、准备工作安装C++编译器...
    99+
    2023-11-04
    C++ 网页爬虫 程序实现
  • php怎么使用socket简单实现通信功能
    这篇文章主要讲解了“php怎么使用socket简单实现通信功能”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“php怎么使用socket简单实现通信功能”吧!WebSocket的作用WebSo...
    99+
    2023-07-05
  • 怎么在python中使用feapde实现一个爬虫
    这篇文章给大家介绍怎么在python中使用feapde实现一个爬虫,内容非常详细,感兴趣的小伙伴们可以参考借鉴,希望对大家能有所帮助。python是什么意思Python是一种跨平台的、具有解释性、编译性、互动性和面向对象的脚本语言,其最初的...
    99+
    2023-06-14
  • 怎么使用Java IO流和网络制作一个简单的图片爬虫
    这篇文章主要介绍“怎么使用Java IO流和网络制作一个简单的图片爬虫”的相关知识,小编通过实际案例向大家展示操作过程,操作方法简单快捷,实用性强,希望这篇“怎么使用Java IO流和网络制作一个简单的图片爬虫”文章能帮助大家解决问题。Ja...
    99+
    2023-07-05
  • 使用Python爬虫怎么实现定时计划任务
    这篇文章将为大家详细讲解有关使用Python爬虫怎么实现定时计划任务,文章内容质量较高,因此小编分享给大家做个参考,希望大家阅读完这篇文章后对相关知识有一定的了解。1.方法一、while True首先最容易的是while true死循环挂起...
    99+
    2023-06-15
  • 怎么用Python代码实现新闻爬虫
    本篇内容介绍了“怎么用Python代码实现新闻爬虫”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!新闻源:Reddit我们可以通过Reddit...
    99+
    2023-06-16
  • 教你使用PHP实现一个轻量级HTML模板引擎
    🏆作者简介,黑夜开发者,全栈领域新星创作者✌,2023年6月csdn上海赛道top4。多年电商行业从业经验,对系统架构,数据分析处理等大规模应用场景有丰富经验。 🏆本文已收录于PHP专栏:PHP进阶实战...
    99+
    2023-08-16
    php html 模板引擎
  • 怎么在python中使用selenium实现一个网络爬虫
    本篇文章为大家展示了怎么在python中使用selenium实现一个网络爬虫,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。Python主要用来做什么Python主要应用于:1、Web开发;2、数据科...
    99+
    2023-06-08
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作