一个网站想要有一个好的排名就必须做好站内、站外的优化,相信年夜家一定看过很多关于站内或站外优化的体例、秘笈、窍门什么 的,有资深的搜索引擎优化人员写的,有站长们自己的经验分享或说是实战经验,今天跟年夜家说说自己对站内优化的一些观点跟理解吧。
我是方才接触站内优化的,因为之前一直是做站外优化的,所以对站内优化还不是很体会,今天主要跟冲击分享的是站内优化过程中很多人会轻忽的三个方面,即:sitemap、404页面、robots.txt。很多站长在做站内优化的时候很容易轻忽这三个方面,感觉sitemap、404页面、robots.txt没有什么优化的需要,只要网站上有就好了。其实完全不是这样的,很多新站收录慢,或底子不被收录;老站排名上不去,很年夜的原因就是因为没有做好这三方面的优化。如果把这三个方面的优化做好你会发现蜘蛛对你的网站的友好度会年夜年夜提升。
sitemap又称网站地图。
在专业术语上,sitemap就是一个页面,上面放置了网站上所有页面的链接,一个网站所有链接的容器,按照网站的布局、框架、内容,生成的导航网页文件。年夜大都人在网站上找不到自己所需要的信息时,可能会将网站地图作为一种解救办法,蜘蛛很是喜欢网站地图。
为什么要讲网站地图呢,把蜘蛛比作是一小我,当你到一个陌生的城市时,第一个想到的应该是去买一张这个城市的地图,不然很容易迷路的。同样的事理蜘蛛爬行你的网站时要是有一张地图引导他,他就不会迷路,并且要是你的地图布局公道且持续性强的话,蜘蛛就会长时间停留在你的网站上。做一个很形象的比方,我们在买到一张地图时,如果他上面的路标、地名标示的不是很明显,或说是很清晰,我们上哪去找我们要达到的处所呢。还有就是你的地图很紊乱,道路与道路之间没有一定的延续性也会致使迷路的。所以我们的网站地图优化需要我们在做站内链接的时候要有一定的公道延续性,当你从一个页面链接到另外一个页面是一定要有一定的相关性,不然很容易引起蜘蛛的反感的,网站的URL地址就跟地图的路标一样一定要标明的很明确,不要用一些不晓得或跟页面不相关的字母。不然蜘蛛在爬取你的网站时很难读懂你网站网页的具体内容的。
404页面
404是W3C规定的HTTP状态码中的一种。是WWW网站拜候比较常常呈现的毛病。奉告阅读者其所请求的页面不存在或链接毛病,同时引导用户使用网站其他页面而不是封闭窗口分开,这种专业的官方诠释。通俗点将404页面就是一个网站内的报错页面,当我们输入你的网站网址呈现毛病时,就会直接跳转到404页面,404页面会引导用户返回到网站的首页或其他用户比较存眷的页面。这就需要我们在制作404页面时要给用户或蜘蛛做一个很好的引导作用,引导用户回到你网站的首页或其他页面,要是你的404页面什么都没有的话,蜘蛛或用户拜候到你这个页面找不到任何的信息就会直接封闭,这样的用户体验是很欠好的。我们可以从下图的一个404页面看出来,这个网站的404页面有一个返回顾页跟免费咨询这两个返回链接,这样的404页面优化就已经算是不错的了,我们出错了可以回到首页寻找我们想要找的信息。
Robots.txt
在搜索引擎拜候网站的时候,Robots.txt是第一个要被查看的文件,Robots.txt会奉告网络蜘蛛法度在办事器上什么文件是可以被查看的。在进行搜索引擎优化网站优化的时候,通过Robots.txt把一些内容不想让蜘蛛抓取,比如js等后台法度文件 进行阻挡,如果没有Robots.txt,蜘蛛会抓取你网站上所有的文件,这样的话你网站内部一些蜘蛛不喜欢的文件也会被抓取到,这样会让蜘蛛对你的网站产生很严重 的排斥心理,会年夜年夜下降网站的搜索引擎抓取效率!所以,我们一定要记得设置Robots.txt,不但要设置,特别是一些JS跳转的文件,一定不要让那个蜘蛛抓取。一些网站是可以注册的,我们也要把注册信息屏蔽失落,你想你那么多的注册信息让蜘蛛抓取的话,一点实用的信息都没有,这也是晦气于网站的优化的。包含网站内部的登岸页面、评论页面之类的,因为这些页面每个页面都存在,这样蜘蛛抓取的话会主导很多的重复页面的,也是晦气于网站的排名的。