目前比较好的体例之一是iframe+robots制止。将过滤部分代码放进iframe,等于挪用其它文件内容,对搜索引擎来讲,这部分内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是可以发现iframe中的内容和链接的,仍是可能爬行这些URL,所以加robots制止爬行。iframe中的内容仍是会有一些权重流失,但因为iframe里的链接不是从当前页面分流权重,而只是从挪用的那个文件分流,所以权重流失是比较少的。除排版、阅读器兼容性之类的头疼问题,iframe体例的一个潜在问题是被认为作弊的风险。现在搜索引擎一般不认为iframe是作弊,很多告白就是放在iframe中,但隐藏一堆链接和隐藏告白有些微妙的区别。回到搜索引擎判断作弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,谷歌以后可能改变措置iframe的体例,他们仍是希望在同一个页面上看到普通用户能看到的所有内容。
总之,对这个现实、严重的问题,我目前没有自己感觉完美的谜底。当然,不克不及完美解决不是就不克不及活了,不合网站搜索引擎优化重点不合,具体问题具体阐发,采取上述体例中的一种或几种应该可以解决主要问题。
而最最最年夜的问题还不是上述这些,而是有时候你想让这些过滤页面被爬行和收录,这才是杯具的起头。以后再讨论。
作者:Zac@搜索引擎优化每天一贴
版权所有。转载时必须以链接形式注明作者和原始出处及本声明。
原文:.搜索引擎优化zac/搜索引擎优化-tips/duplicate-urls-content/