本日发现,有很多多少同学起头玩WordPress了,很欢畅有些志同道合的朋友插手WP的年夜家庭。可是,不管你的水平如何,只要你是站长,就有需要懂的Robots.txt的写法与作用。近日,小站的?p=XX页面总是呈现在百度收录中,虽然有增加收录的作用,可是会对网站权重造成影响。所以我采纳了一系列的办法来避免过量的重复页面抓取。
其实,我从一起头就做了Robot的优化工作,只不过搬空间时候忘了那个Robots文件了……一失足成千古恨,博客收录降了很多多少……WordPress的优化仍是做得很好的,虽然有些处所需要借助自己对Html等小知识的掌握,但这其实无故障你把WordPress站点打造成优化典型!
下面我分享一下自己博客的Robots文件,并简单的说一下作用。
User-agent: *
Disallow: /comments/feed/
Disallow: /*/trackback
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/plugins/
Disallow: /wp-content/themes/
Disallow: /*?replytocom=
Disallow: /*/comment-page-*
Disallow: /?r=*
Disallow: /?p=*
Disallow: /page/
Allow: /wp-content/uploads/
Sitemap: http://***/sitemap.xml
Sitemap: http://***/sitemap_百度.xml
上面的User-agent:*意思就是对所有的蜘蛛进行法则,Disallow想必年夜家英文稍微会一点的都懂。比如Disallow: /page/意思就是不要抓取/page下面的网页,以免造成降权。
晚上见有童鞋将Disallow: /*?replytocom=和Disallow: /*/comment-page-*近似的写成Disallow: *?replytocom=以及Disallow:*/comment-page-*特意说明一下,在百度官方的说明中,Disallow的地址必须以/这个斜杠开首,不加这个虽然可以可是不适合标准。
笔者认为:半懂不懂我们学习不该该有,无关紧要这个仍是有着比较好!标准在那里,咱们就看标准来吧!希望年夜家可以多多交换,配合学习!有毛病请实时更正指出,谢谢!
在最后祝愿玩WordPress的同学手艺步步高,WordPress建站值得你对峙下去,希望看到越来越多的网友有自己的建站一周年记念文章呈现!
(责任编辑:sunsun)