介绍
本篇文章给大家分享的是有关利用php怎么对搜索引擎的爬行记录进行记录,小编觉得挺实用的,因此分享给大家学习,希望大家阅读完这篇文章后可以有所收获,话不多说,跟着小编一起来看看吧。
下面是完整代码:
//记录搜索引擎爬行记录,searchbot 美元;=,get_naps_bot (),, if (searchbot美元),={,$ tlc_thispage addslashes ($ _SERVER [& # 39; HTTP_USER_AGENT& # 39;]),, _SERVER url 美元;=,[& # 39;HTTP_REFERER& # 39;];, file 美元;=,WEB_PATH强生# 39;robotslogs.txt& # 39;,, $ date =,日期(& # 39;Y-m-d H:我:& # 39;),, 美元$ data =, fopen(文件,& # 39;一个# 39;),, 写入文件(数据,美元“时间:$ date 机器人:searchbot 美元;URL: tlc_thispage/r/n"美元),, 文件关闭(元数据); }
WEB_PATH为index . php下定义的根目录路径,意思就是说robotslogs.txt文件是放在根目录下的。
通过<代码> get_naps_bot() 代码>获取蜘蛛爬行记录,然后在通过addslashes处理一下,将数据存储于变量美元tlc_thispage中。
fopen打开robotslogs.txt文件,将数据通过函数写入文件写入,在通过函数文件关闭关闭就可以了。
因为我觉得没必要的,所以把自己网站上的代码删除了,所以也没有效果示例了。
<>强PS: php获取各搜索蜘蛛爬行记录的代码强>
支持如下的搜索引擎:百度、谷歌、必应、雅虎、搜搜、搜狗,有道爬行网站的记录!
代码:
& lt; ? php /* * *,获取搜索引擎爬行记录 *,edit by www.jb51.net */function get_naps_bot (), {, 函数=美元useragent $ _SERVER [& # 39; HTTP_USER_AGENT& # 39;]),, if (大小写敏感(useragent美元,& # 39;广告# 39;),!==,false) {, return & # 39;谷歌# 39;,, }, if (大小写敏感(useragent美元,& # 39;baiduspider& # 39;), !==, false) {, return & # 39;百度# 39;,, }, if (大小写敏感(useragent美元,& # 39;msnbot& # 39;), !==, false) {, return & # 39; bing # 39;,, }, if (大小写敏感(useragent美元,& # 39;把# 39;),!==,false) {, return & # 39;雅虎# 39;,, }, if (大小写敏感(useragent美元,& # 39;sosospider& # 39;), !==, false) {, return & # 39;李玖哲# 39;,, }, if (大小写敏感(useragent美元,& # 39;sogou 蜘蛛# 39;),!==,false) {, return & # 39;搜狗# 39;,, }, if (大小写敏感(useragent美元,& # 39;yodaobot& # 39;), !==, false) {, return & # 39; Yodao& # 39;,, }, return 虚假, }, function nowtime () {, $=日期(“Y-m-d.G:我:s"),, return 日期;美元, }, searchbot 美元;=,get_naps_bot (),, if (searchbot美元),{, $ tlc_thispage =, addslashes ($ _SERVER [& # 39; HTTP_USER_AGENT& # 39;]),, $ _SERVER url=[& # 39; HTTP_REFERER& # 39;];, 文件=懊涝?www.jb51.net.txt",, 时间=nowtime美元(),, data=https://www.yisu.com/zixun/fopen美元(美元)文件,“a”); 写入文件($ data,“时间:时间机器人:美元searchbot URL: $ tlc_thispage/n”); 文件关闭(元数据); } ?>
以上就是利用php怎么对搜索引擎的爬行记录进行记录,小编相信有部分知识点可能是我们日常工作会见到或用到的。希望你能通过这篇文章学到更多知识。更多详情敬请关注行业资讯频道。