查询收录的时候发现搜索引擎只收录了网站的首页,其他页面都未收录,这是什么原因呢?据欧阳淳教员小我总结,主要有以下9年夜原因:
1、新站内容审核期间未显示
新站刚起头被搜索引擎收录的时候,一般都是先收录网站的首页。其他页面会进入搜索引擎的审核机制,期待审核过程结束之后就会显示出来。这个过程谷歌相对来讲比较快速,一般2-3天就会起头收录网站的内页,而百度相对来讲比较迟缓,不过一般不会逾越1个月。
解决方案:根基上每个新站城市经历这个过程,我们要做的是如何缩短这个过程:第一是从搜索引擎收录首页之后延续更新,第二是增加一些外部链接,从这2个方面来加快搜索引擎对内容的审核时间。再耐心期待根基就没有问题了。
2、收集站、小偷站被拔毛
收集站和小偷类网站的数量数不堪数,这类网站一旦数量增多就会造成内容重复度太高或产生年夜量的镜像网站。
试想一篇文章被转载了一万次,这一万个相同内容的页面有几个对用户真正有价值,又有几个页面被用户所阅读呢?
小偷站比收集站的问题表示得加倍的严重,收集站多是部分文章的重复度较高,而小偷站则是99%一样。一旦互联网存在着不计其数一模一样的网站,搜索引擎还会袖手旁不雅吗?难怪站长们都叫这种网站叫"垃圾站"。
非论是收集站仍是小偷站,一旦量化之后激活了搜索引擎的惩罚法则就会被惩罚,一般表示较为多的现象是收录急剧下降甚至K失落其他页面剩下一个首页。可能会有人上来讲:"我的小偷站活的好好的,一点事情都没有,你说的不对。"其实这个事理很是简单,如果这个小偷法度只有你在用,你做了几个一模一样的网站,根基上不会有问题。如果这个法度不是你一小我在用而是上百人上千人在用,这些网站就会形成一个调集,搜索引擎阐发这个调集的时候发现重复网站较多,就会对其中一些进行降权甚至K失落,保存一部分。也许你就是保存那一部分之中的一员。
解决方案:收集站可使用多站收集的体例,也就是说不要频繁地收集几个网站,你应该扩年夜你的收集源,可以更好的避免被降权的风险。小偷类网站可以采取多个小偷法度的整合,比如把新浪ASK、SOSO问问、百度问答等多个整合在一起来提高内容的多样性。但小偷法度避免不了降权的风险,就像一个偷东西的人可能暂时没被抓到,但不代表以后不会被抓。
3、办事器持久不稳定
搜索引擎会不按时拜候你的网站,如果拜候10次你的网站有8、9次都打不开或打开速度极慢的状态,搜索引擎会把这个网站措置为行将封闭停失落的网站,慢慢就会对网站的收录进行删减,直到删减剩下网站的首页的时候,搜索引擎还在继续不雅察是否网站是真正要封闭,这个时候我们就看到了由于空间问题引起的搜索引擎只收录首页的现象。
解决方案:马上换空间吧。
4、Robots书写毛病
我有一个学员是做电子商务平台的,他给每个注册的用户都开了一个二级域名,而这些二级域名开完之后一个多月全部都只收录一个首页,并且不显示题目信息和描述信息。他找到我之后我立马就找出是robots文件书写的毛病,写成屏蔽搜索引擎收录,不过百度并未完全遵循制止收录的原则,而是收录了一个首页。
解决方案:直接去失落robots文件,或修改成正确的书写体例。
5、敏感主题的网站
一般我们说的敏感主题是指一些擦边或涉及违法的网站。比如擦边类型的有美女的图片网站(稍微吐露一点、狂野一点的),这类网站如果被举报的话很容易就被措置。
违法的比如办证或开辟票等,这一类的网站一不小心都很容易受到搜索引擎的惩罚。
解决方案:这类网站的生存周期一般情况下都不会太长,我是不建议做一些涉及到法令或犯法的网站,这种网站多靠运气。有时候手艺再好,也避免不了搜索引擎的降权。这不是手艺问题,而是网站自己的问题。
6、网站被入侵挂木马
搜索引擎对中了木马的网站很是敏感,百度一般情况下几天就把排名降下去,这样是为了避免用户阅读到中了木马的网站而遭殃,谷歌对中了木马的网站城市有提示。如果迟迟未措置失落木马链接,有可能就会被降权K剩下首页。
解决方案:发现被挂木马时应该实时删除木马链接,然后找出网站被入侵的原因。无非是两个关头点,一个是法度自己的缝隙致使,别的一个是办事器被入侵致使你的网站也受害。如果是办事器问题可以直接联系空间商解决;网站问题也可以,为了避免空间商的工作人员在查抄你网站时候的不负责任,仍是自己脱手,采取以毒攻毒的体例来找木马,可以在一些知名的黑客网站下载一个木马上传到FTP根目录,一般木马都有一个"木马扫描"的功能,通过这个扫面功能可以扫描出网站中存在的木马,然后清除失落,这是最直接的体例。别忘了最后把你上传的木马也删除失落。关于这方面详细的教程我会在后面专门写一篇文章。