使用过ECSHOP的朋友城市知道ECSHOP有严重的重复收录过量的问题,很多朋友的网站实际产品加文章数量仅仅1000来个,查询链接竟然有3,4千,谷歌甚至会有上万。 重复链接因为Title一样,所以常常会被搜索引擎赏罚致使收录差,对这个问题,搜索引擎优化er们是必须要解决的,以下颁发我小我的解决经验,欢迎点评。
阐发会有哪些重复链接产生
1.就我使用的情况,首先是产品页和文章页会有很多的页面以 ?from=rss 结束
如 .xxxx/goods-1.html?from=rss
这个的解决体例有二,一是通过删除rss信息订阅功能,二是Robots设置
我小我选择的是第二种
所以我在Robots里加了一条制止搜索引擎索引的语句:
Disallow: /*rss*
这句的意思是只要根目录下的链接带 "rss"就不索引,除非你的网站会有带页面地址里正好呈现rss这持续三个子母,这个语句都可以解决这个问题。
2.分类页里的动态链接
分类页里充满了年夜量的动态链接
包含属性筛选的链接
排序的链接
显示体例的链接
接下来我们逐一击破
首先是属性筛选的链接
如.xxxx/category-1-min80-max90-attr0.html
这个是筛选里面的代价的筛选
包含其他属性的链接,我们发现规律就是城市呈现 "min" "max" "attr"三个词,别离是最小,最年夜,属性值
和上面的,我们在Robots加了一跳制止抓取包含这三个词的语句:
Disallow: /*min*Disallow: /*max*Disallow: /*attr*
然后,排序的链接和显示体例的链接我们点击后同样会呈现近似一长串,其中仍然包含 "min" "max" "attr"三个词
因而上面Robots的设置已经可以解决
这样就完了吗?没有,虽然我们设置了Robots的抓取,但为了让蜘蛛爬行更方面直接,我们需要做别的一个工作,就是限制爬行
找到模板文件里对应的属性筛选和产品列表的模板文件(我自己的是cat_filter.lbi和goods_list.lbi)
找到属性筛选、排序、显示体例的链接代码,在其里增加一句 rel="nofollow",意思就是限制爬行
robots的作用在于制止抓取,而nofollow则在于制止爬行,双管齐下很好的引导了蜘蛛和搜索引擎
3.其它的一些重复动态链接
我小我发现的其它重复链接还包含品牌商品里的显示体例
如.xxxx/brand-1-c0.html?display=text等
我在Robots同样加了三句
Disallow: /*min*Disallow: /*max*Disallow: /*attr*
就解决了不合显示体例还有不合链接的重复收录问题
以上小我所提到的并未包含所有的动态链接,但给年夜家做了一个不错的参考,因为万变不离其宗,朋友们可以依据我提到的体例和思路慢慢的把自己的Robots写完整,同时适当的使用nofollow在模板里限制蜘蛛的爬行
注意的是对已经收录了年夜量的重复链接,您进行以上提到的修改,搜索引擎其实不克不及快速做出反应,对待新的页面会限制收录重复页面,但对已经收录的重复链接,搜索引擎需要花了一段时间取消收录而重新收录主页面,小我的经验是至少需要2个月。
以上经验由泰摩网球taimo原创整理,欢迎转载,但请保存网址,谢谢支持。