做SEO
我们是认真的!

如何避免蜘蛛重复抓取一个页面

问题:如何避免蜘蛛重复抓取一个页面?

回答:蜘蛛重复抓取页面是正常的, 蜘蛛抓取 页面的依据是看页面内容是否发生了变化,如果每次抓取页面都有变化,那么抓取就会更加频繁。如果多次抓取后发现页面都没有变化,就会减少抓取。所以不要刻意让蜘蛛不重复抓取某个正常的页面。

蜘蛛多次重复的抓取页面,就说明这个页面的更新频繁。这是个好的现象,我们可以去对这个页面进行分析,看看到底是哪个内容模块经常有更新。而其他的页面则可以参考,也加大这些页面的更新频率,这样整个网站的 抓取频次 就会增多。

当然,想要整体增加蜘蛛抓取频次的话,内容的数量和内容的持续更新也需要注意。通常,内容越多的网站,蜘蛛的抓取频次就越高。

另外有些动态页面,或者是某些数据库文件,大家要注意。这些页面更新会很频繁,如果给蜘蛛提供了链接入口,那么蜘蛛就会经常来抓取这些页面,这个细节问题大家也要注意下,对于这些没有必要被收录的页面,要隐藏好链接入口。

还有就是sitemap这个 网站地图 文件,搜索引擎之所以会频繁抓取,其实也是跟文件的更新有关系。如果我们的网站地图是动态的,那么网站一旦更新内容,网站地图就会产生变化,搜索引擎蜘蛛每次过来都能发现新的链接,因此它就会频繁来抓取。

关于如何避免蜘蛛重复抓取一个页面的问题,笔者就简单的说这么多。总之来说,如果蜘蛛重复抓取的是正常的需要优化的页面,那就不要去管它。如果是那些不需要优化的动态页面,就要想办法隐藏链接入口,再在 robots 文件上限制抓取。最后再提醒下,蜘蛛抓取页面跟页面的内容更新有关系,大家可以根据这个原理去对 网站收录 进行优化。


未经允许不得转载:广州seo小雨 » 如何避免蜘蛛重复抓取一个页面

全网覆盖 网络推广所有领域

联系我们在线沟通