网站运营:解读BaiduSpider与站点死链
发布时间:2016-12-14 来源:查字典编辑
摘要:问:robots屏蔽对阻止百度抓取死链是否有效答:当然有效,百度严格遵守robots协议,若发现百度依然抓取,先确认是否为Baiduspid...
问:robots屏蔽对阻止百度抓取死链是否有效
答:当然有效,百度严格遵守robots协议,若发现百度依然抓取,先确认是否为Baiduspider,若确认,可以通过反馈中心进行投诉。
问:已被百度抓取的死链,可以通过robots屏蔽的方式让百度删除吗?
答:不建议你这样做,最快最有效的方法是通过百度站长平台死链提交工具进行处理
问:我已经通过死链工具进行提交了,可是通过日志发现百度还是在抓我们的死链
答:您提交规则后,spider为了验证链接是否真的死掉,需要抓一部分回来验证。
问:百度对死链的抓取,对正常文章抓取的影响会有多大。
答:这个没有统一的标准,如果你没有设置robots也没有向百度提交,死链量还特别巨大的时候,有可能会占用你网站大量抓取配额,导致正常内容无法抓取。如果仅仅是spider为了验证死链规则抓一部分,那么对正常内容不会造成影响。
问:百度对死链的要求是什么?怎么设置死链效果最好?
答:目前百度支持协议死链、内容死链和跳转死链,其中最效果最好的是协议死链。
问:百度站长平台是否有工具帮助我们发现网站内的未知死链?
答:可以通过链接分析工具中的死链分析功能,还有抓取异常工具进行发现分析