4月24号谷歌精采的工程师Matt Cutts在谷歌网站办理员博客中公开表扬了那些高质量的网站,并暗示在接下来的工作中,会重点推出一个算法,针对那些垃圾网站,这个算法将会影响网站的排名。
这在搜索引擎优化业界似乎已经不是新鲜的事情了,众所周知,谷歌很长一段时间都在这对过度优化的网站进行算法更新,而此次算法更新针对的目标就是那些垃圾网站。什么样的网站将会在这次算法更新中遭受袭击?我们先来体会一下这次“网络垃圾算法的更新”的几年夜亮点:
1、谷歌推出几个不合元素的识别系统来检测网站
搜索引擎以某种体例来确定与网站相关的网页集群,比如在同一主机上,寻找这些网页为目标的桥页和相关文章,一旦被确定这是一个集群,集群内部的文件可能收到搜索引擎的检索,看看这个文本是否属于他们内部的文本,如果不是一旦被发现是外部链接进入的文本,则会被认为是作弊,同时在检测内部文件的时候,搜索引擎会重点检索meta标签里面的内容,如果发现meta标签中塞满了重复的关头词,或是有隐藏在网页上的文字,或是页面中包含了很多无关的链接,那么很不幸,这样的网站也被列入了搜索引擎垃圾网站的黑名单中。
2、使用统计的语言模型来识别网页
在这次谷歌算法更新中,谷歌亦取得更先进的开辟,他们使用统计语言模型,语音识别,机械翻译来识别网页上的“非自然字散布”,甚至确定在上下文中的同义词。这样谷歌在面对庞年夜的数据信息时就有了更加简单的算法工作。
3、提出两个新的查询短语subphrase和phrasification
Spammier:是基于对网站进行分类,然后判别这类网站中是否存在垃圾网站。使用这个短语可以对搜索引擎成果也中的一些网站进行分类,如电脑游戏,片子,音乐专题网站。
Phrasification:从弹跳窗口中选出重复的网页。着眼于不合类型的网站中弹跳出来的小窗口页面进行重复页面筛选,一旦发现就被过滤失落。
以上是这次谷歌算法更新的极年夜亮点,它可能会影响约3%的所有查询,包含英语,德语,中文和阿拉伯文的语言,不知道这次更新对站长朋友会造成多年夜的冲击?
内容原创:kaililong 转载内容请保存来历地址,谢谢。