不抓取如何会收录,又怎么有排名?然而就这样一个明显的问题,却有大量的网站将其忽略掉。在A5这里做服务的客户中,其中“20%”的网站都会存在抓取错误,直接严重影响到网站的成长效果。今天这篇文章,如果你有幸看到,希望可以阅读完今天这篇文章,并分享出去,因为真的会很有价值。
贺贵江:曾经诊断过一个千万级别收录的站点,但是索引总是被反复的剔除,又反复的收录,企业一直找不到问题。可是当我们对网站检查之初就发现一个怪的现象了:
1、错误的封禁
在百度的robots.txt的更新上,如果多次点击“检测并更新”就会出现时常可以更新,但是又时常无法更新的问题。如此一来:不应当被收录的东西,在robots.txt上禁止的被收录了,又删除就很正常了。那么它的问题是什么呢?并非服务器负载过度,而是因为防火墙错误的将部分Baiduspider列入了黑名单。
上面这个例子是robots.txt方面的抓取错误,作为站长最少应该每周都检查更新一下robots.txt是否可以正常更新。之后我们再看下“页面抓取”方面的错误:
2、服务器异常
常规的服务器就不说啦,大家都知道的,北上广的一般都不错。不过有一些特殊服务器,想必绝大多数的站长都不知道吧?例如西部数码的“港台服务器”就很有趣,真的是港台的吗?本身机房在国内,还算什么港台?为了逃避备案而用一个港台的IP,数据全部在国内。
这样有什么不好呢?我们会发现:站点的服务器是经过CDN的,哪怕是你上传的一张图片,都会显示为“302状态码”,访问速度是提升上去了,可是这样利于SEO吗?呵呵哒。真不知道西数做为国内大型idc服务商是如何想的,利用那些无知吗?
3、获取不到真实IP
规模较大的网站,一般都会使用CDN加速,但是有些站点不仅仅对“设备”使用了CDN加速,而且还对Spider使用了加速功能。最后的结果是什么呢?如果CDN节点不稳定,那么对网站spider来讲,这个问题将是致命的。
很多大型站点开放CDN的原因就是容易被攻击,这个时候如果不做“蜘蛛回源”就可想而知了。你的站点做了CDN了吗?请登录百度站长平台查看一下spider是否可以抓取真实IP地址吧!
4、频繁的50X类错误
这样的链接其中一个共同的特点是:当打开后,全部都是正常的,那么Spider为什么会报错提醒呢?只是因为在爬虫发起抓取的那一刻,httpcode返回了5XX",你的站点是否频繁有这样的问题呢?有的话需要立即安排技术,或者通报IDC服务商做解决了!
5、错误的抓取比例
任何网站都做不到100%不出问题,但是万事有一个度:我们认为,这个比例不超过5%,对网站基本上是无影响的,且这样的错误不应当每天都出现。最常见的抓取错误一般都是连接超时:"抓取请求连接建立后,下载页面速度过慢,导致超时,可能原因服务器过载,带宽不足"这种情况:
A:尽量在不影响图片质量的情况下,对图片进行压缩,上传的时候就进行了压缩。
B:减少如 *** 脚本文件类型的使用,或者进行合并
C:页面大小进行控制,尤其是一些浏览量、抓取量较高的页面,不建议超过2MB。
D:增加网站的带宽,提升 *** ,或者更换服务器。
今天这篇分享,是否对你有帮助呢?希望能对大家有所帮助!
俺自来安徽省一个偏僻的乡村,小时候家里很穷,13岁的时候我的母亲去逝了,父亲一个人拉扯我和大我2岁的哥哥。我的童年生活在我的印像中已经很模糊了!为了能给父亲减轻生活压力能早日给哥哥娶上媳妇,高中没读完便缀学了,在家里帮父亲做活。那一段时间我什么都做过,农忙在家干活,农闲就出去打工。...
我是高三的时候才开始上网的,是不是很落伍 ,呵呵. 因为我们那里条件有点落后,加上平时学习很忙. 到高三的时候压力特别大,然后在同学的影响下 频繁出入网吧. 天天通宵,当时很傻,什么网络知识都没有 两个IC...
编者:蓝色理想 www.blueidea.com 成立于1999年的10月,作为国内最大的设计类站点之一,以建设网站设计与开发人员之家为宗旨,以介绍网络开发技术与网站创作设计交流为主要内容。其网站内容制作精良,每天都会有会员精心制作的教程发布,无私地对网友进行帮助,而且还举办过不少设计比赛并...
前言 &nb...
站长网(www.admin5.com) 与百度知道互联网(zhidao.baidu.com) 紧密合作,一起解决更多互联网方面的问题。给更多的站长和网络人解决问题。服务于互联网作努力本站站长 图王 也荣誉为百度知道知识专家团的一员。为更多的朋友解决网络问题 希望大家继续支持 站长网 支持 百...
--- 仿<刘和珍君>版 &n...