如今很多站长城市用CSS+DIV作为自己网站的法度,因为在他们看来这种法度的优势就在于能够更有效地让蜘蛛爬行自己的网站,提高网页收录量。我目前也在采取这种法度,目前来看效果还算不错,不过网站优化讲究的就是多样性,仅仅靠着网站法度就像提高网站的可爬行性未免有点痴人说梦,所以我就在网站的布局上动了心思。
1.网站整体布局精练,尽可能少用图片
虽然网站的直接对象是网友,可是网站同样要显现给蜘蛛,让它来审阅收录。一个网站为了页面的富丽而年夜量采取Flash以及图片,这样让网站加载速度变慢,使蜘蛛无法在有效地时间内索引网站的内容,爬行我们的网站布局,所以要值得注意。
别的,网站自身也要有一个树形布局,使得网站相关性内容整合在一个栏目之下,以首页-索引页-内容页的形式的形式展开,提高内容的相关性,这样就有利于蜘蛛的爬行整合。
2.网站导航类目
导航栏在我看来绝对是网站条理布局扶植中比不缺少的一部分,一个明确的导航栏能有效的提升蜘蛛的识别率,因为蜘蛛虽然对图片格局不伤风,可是对一些css是能够识别的。不过我们不克不及贪图一时的效果而去聚积js、ajax、inframe等手艺,因为这些都是被百度看作作弊的手法。
同时,面包屑导航是一个下降网站跳出率有效的办法。因为很多时候游客会误入网站的某一个页面,而这时候由于没有面包屑导航,就会找不到之前拜候的页面,而这时候年夜大都网友会选择直接关失就逮页,所以面包屑导航的设置很关头。同样的事理,网站地图的呈现也会让网站自身的条理布局完整显现在蜘蛛面前,使得它对我们网站洞若观火。
3.内容页条理布局的扶植
对文章的摆放其实不是随意便可以的。仔细研究过空间日志的站长都知道,新的文章内容一定要显现在蜘蛛出没最频繁的处所,所以文章要按发布时间排放也就层见迭出了。
别的每篇文章都要与其他页面进行一个毗连,比如上一篇、下一篇按钮的设置,这样可以增加相关阅读的增量,有利于蜘蛛自身的索引以及收录。
4.标签云以及内部锚文本的使用
标签云是提高聚合类内容可爬行性的有效途径。而标签云采取不合颜色、不合年夜小、不合粗细以区分不适用户存眷度的内容。同时内部锚文本的插手也能让整个网站串成一个整体,页面之间相互联系,增加用户体验的同时加年夜蜘蛛的拜候深度。
以上四点就是我提高网站可爬行性经常常使用到的体例在,在这分享给年夜家,希望可以给站长们带来一点帮忙。此文由.erhaoshouzhang/guanjia/ 官家撰稿,欢迎转载,转载时请保存链接,谢谢。