如何使用Robots来处理网站死链接
2017/6/6 9:27:38来源:德道网络
如何使用Robots来处理网站死链接
Robot的应用:主要用于定义允许/禁止哪些搜索引擎蜘蛛的爬取,允许/禁止蜘蛛可以爬取的网站路径,允许/禁止蜘蛛爬取URL的规则,告诉某些搜索引擎网站地图的URL。
死链的处理:这里针对 度搜索引擎讨论,主要还是到站长工具里面,把死链提交给 度,告诉 度这个链接不存在,请求删除之 的收录,这里是以txt或xml形式批量提交死链给 度;
现在谈谈死链与Robot的关系,很多人就把死链提交到Robots定义里面,认为用Disallow来禁止 度蜘蛛的抓取,这个想法是 的,出发点 是不想让 度收录自己网站的死链,但是有没有考虑到快照问题,就是这个链接是个死链,但是在网站收录里面还有快照存在,你就会想,是不是 度还能抓取到我的死链,所以你就在Robot里面加了N多行的Disallow,来禁止 度收录你的死链,seven 直不太认可这么 个做法,其实这完 是 个本末倒置的做法。
要搞清楚死链是如何产生的?死链是由于文件删除或者路径修改产生的不可访问的链接,那么你需要做的 步是完 清除死链,第二步是提交死链,而Robots的禁止收录,是因为路径存在,但是你不希望被搜索引擎收录, 如网站后台或者用户中心 类,所以才加的Disallow去禁止收录,死链是访问不到的链接,如果你 步清除完了,存在这个Disallow的 要吗?因为你不完 清除死链,势 影响用户体验。
死链是 须清除的,对于搜索引擎而言,网站收录之 的死链 般不会被收录,因为没有价 ;收录之后的死链,可能用户会在搜索结果或者站内浏览时点击到,影响用户体验,所以 须提交死链和投诉快照加快死链处理。robots与死链的关系很微妙,差别就在于这个死链地址是否还存在于网站内链当中。