利用php抓取蜘蛛爬虫痕迹的示例代码

2025-05-29 0 69

前言

相信许多的站长、博主可能最关心的无非就是自己网站的收录情况,一般情况下我们可以通过查看空间服务器的日志文件来查看搜索引擎到底爬取了我们哪些个页面,不过,如果用php代码分析web日志中蜘蛛爬虫痕迹,是比较好又比较直观方便操作的!下面是示例代码,有需要的朋友们下面来一起看看吧。

示例代码

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36
<?php

//获取蜘蛛爬虫名或防采集

function isSpider(){

$bots = array(

'Google' => 'googlebot',

'Baidu' => 'baiduspider',

'Yahoo' => 'yahoo slurp',

'Soso' => 'sosospider',

'Msn' => 'msnbot',

'Altavista' => 'scooter ',

'Sogou' => 'sogou spider',

'Yodao' => 'yodaobot'

);

$userAgent = strtolower($_SERVER['HTTP_USER_AGENT']);

foreach ($bots as $k => $v){

if (strstr($v,$userAgent)){

return $k;

break;

}

}

return false;

}

//获取哪种蜘蛛爬虫后保存蜘蛛痕迹。

//根据采集时HTTP_USER_AGENT是否为空来防止采集

//抓蜘蛛爬虫

$spi = isSpider();

if($spi){

$tlc_thispage = addslashes($_SERVER['HTTP_USER_AGENT']);

$file = 'robot.txt';

$time = date('Y-m-d H:i:s',mktime());

$handle = fopen($file,'a+');

$PR = $_SERVER['REQUEST_URI'];

fwrite($handle, "Time:{$time} ROBOT:{$spi} AGENT:{$tlc_thispage} URL:{$PR} \\n\\r");

fclose($handle);

}

?>

总结

以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有问题大家可以留言交流。

收藏 (0) 打赏

感谢您的支持,我会继续努力的!

打开微信/支付宝扫一扫,即可进行扫码打赏哦,分享从这里开始,精彩与您同在
点赞 (0)

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。

快网idc优惠网 建站教程 利用php抓取蜘蛛爬虫痕迹的示例代码 https://www.kuaiidc.com/96843.html

相关文章

发表评论
暂无评论