一直以来,总认为小网站的布局很是简单,页面数量很是少,一般情况下搜索引擎是可以轻而易举的抓取和收录,加上关头词其实不是特别热门,所以不消三天两端的查看网站日志。可是后来发现,事实并不是如此:网站虽小其实不代表没有问题,布局简单其实不等于完全收录,也不等于容易取得好的排名。
网站日志是记实办事器的日常动态,特别是搜索引擎爬行和抓取的动态,通过日志能很清晰的阐发出来。看看有多少304,多少404,看看哪些页面被过渡抓取,哪些始终没有被爬行,每个页面的平均抓取时间,蜘蛛每次拜候网站的抓取深度,蜘蛛每天到访网站的次数等等,这些都能直接反应网站目前的问题。
拜候次数侧面反应权重
蜘蛛拜候网站的次数能侧面反应出网站自身的权重,一般小网站单个蜘蛛每天来访的次数年夜概在几十次。如果高于几十次,那么说明通过链接爬行到网站上的次数较多,那么抓取收录的机缘就会年夜一些,最终对排名也是有积极的影响。如果每天来访一两次甚至零次,那么网站很是危险。
404页面下降整体权重
每个网站或多或少的都有404毛病页面,这是不成避免的现象。有时候是空间上自己问题,有时候是自身网站的设置问题,有时候是外部网站存在外部链接的问题,从日志中一旦发现,就应该立即调剂。如果是抓取某个URL404特别多的话,需要在网站上成立这样一个URL页面,有效的操纵,也可以修改robots文件赐与屏蔽,制止抓取。年夜量的404毛病会被蜘蛛记实下来,对网站是减分印象,所以会从整体上下降网站的权重。
按照抓取排行做调剂
在很多网站日志中,都能清晰的看到页面的抓取排行,URL的抓取排行,这些排行最能直接的反应网站的那些部分是最受蜘蛛欢迎的。如果呈现了很多css或js的文件都被年夜量的拜候,那么页面中这样的链接就年夜年夜华侈了权重,所以需要修改robots文件赐与制止。查看有些网站的日志,能明显的看到那些被过渡抓取,那些重点内容抓取的较少,这样不雅察之后就可以做到心中有数,可以有的放矢。比如之前我的网站会莫名奇妙的多出一些抓取文件夹,而这些文件夹在网站中是其实不存在的,所以要实时发现,并赐与屏蔽。
别的,也偶尔也会呈现一些500、206等状态码,这些都是日常的一些小问题引起的,没必要过于担忧。而如果年夜量集中的呈现就说明办事器自己有问题,别的在根目录中尽可能不要放置压缩文件,这样会被一些别有用心的人测验测验下载网站的源码或备份的数据。还有助于304状态码,这个说明也正常,是网站没有更新造成的。
按期查看网站的日志其实其实不会占用我们太多的时间,但如果一直不查看,网站就会有很多的小问题我们无从知晓,也许友情毗连我们做了,原创内容也更新了,外部链接也不断在发,可是排名却一直很是迟缓,那么这个时候就无妨看看你的日志,说不定问题就出在这里边。
本文就到这里吧,膜法世家http://1908.sfwhy供稿,A5首发,转载请尊重作者劳动功能,谢谢!