会员登录 | 会员注册 | 意见建议 | 网站地图

站长资源综合门户

当前位置:首页 > 搜索引擎 > 使用Robots解决重复收录之案例阐发

使用Robots解决重复收录之案例阐发

时间:2011-11-15 10:05:13   作者:   来源:   点击:

使用过ECSHOP的朋友城市知道ECSHOP有严重的重复收录过量的问题,很多朋友的网站实际产品加文章数量仅仅1000来个,查询链接竟然有3,4千,谷歌甚至会有上万。 重复链接因为Title一样,所以常常会被搜索引擎赏罚致使收录差,对这个问题,搜索引擎优化er们是必须要解决的,以下颁发我小我的解决经验,欢迎点评。

阐发会有哪些重复链接产生

1.就我使用的情况,首先是产品页和文章页会有很多的页面以 ?from=rss 结束

如 .xxxx/goods-1.html?from=rss

这个的解决体例有二,一是通过删除rss信息订阅功能,二是Robots设置

我小我选择的是第二种

所以我在Robots里加了一条制止搜索引擎索引的语句:

Disallow: /*rss*

这句的意思是只要根目录下的链接带 "rss"就不索引,除非你的网站会有带页面地址里正好呈现rss这持续三个子母,这个语句都可以解决这个问题。

2.分类页里的动态链接

分类页里充满了年夜量的动态链接

包含属性筛选的链接

排序的链接

显示体例的链接

接下来我们逐一击破

首先是属性筛选的链接

如.xxxx/category-1-min80-max90-attr0.html

这个是筛选里面的代价的筛选

包含其他属性的链接,我们发现规律就是城市呈现 "min" "max" "attr"三个词,别离是最小,最年夜,属性值

和上面的,我们在Robots加了一跳制止抓取包含这三个词的语句:

Disallow: /*min*Disallow: /*max*Disallow: /*attr*

然后,排序的链接和显示体例的链接我们点击后同样会呈现近似一长串,其中仍然包含 "min" "max" "attr"三个词

因而上面Robots的设置已经可以解决

这样就完了吗?没有,虽然我们设置了Robots的抓取,但为了让蜘蛛爬行更方面直接,我们需要做别的一个工作,就是限制爬行

找到模板文件里对应的属性筛选和产品列表的模板文件(我自己的是cat_filter.lbi和goods_list.lbi)

找到属性筛选、排序、显示体例的链接代码,在其里增加一句 rel="nofollow",意思就是限制爬行

robots的作用在于制止抓取,而nofollow则在于制止爬行,双管齐下很好的引导了蜘蛛和搜索引擎

3.其它的一些重复动态链接

我小我发现的其它重复链接还包含品牌商品里的显示体例

如.xxxx/brand-1-c0.html?display=text等

我在Robots同样加了三句

Disallow: /*min*Disallow: /*max*Disallow: /*attr*

就解决了不合显示体例还有不合链接的重复收录问题

以上小我所提到的并未包含所有的动态链接,但给年夜家做了一个不错的参考,因为万变不离其宗,朋友们可以依据我提到的体例和思路慢慢的把自己的Robots写完整,同时适当的使用nofollow在模板里限制蜘蛛的爬行

注意的是对已经收录了年夜量的重复链接,您进行以上提到的修改,搜索引擎其实不克不及快速做出反应,对待新的页面会限制收录重复页面,但对已经收录的重复链接,搜索引擎需要花了一段时间取消收录而重新收录主页面,小我的经验是至少需要2个月。

以上经验由泰摩网球taimo原创整理,欢迎转载,但请保存网址,谢谢支持。

分享到:

网友评论