首页
业务
关于
客户
服务
联系
13520390899
资 深 的 互 联 网 开 发 服 务 商
专注于 网站开发 / 小程序开发 / APP开发 / 软件开发
网十科技 > 动态

平时我们在进行网站搜索引擎优化的过程当中遇到网站降权的原因主要有哪些

仔细的会发现,现在很多网站都有降权或者被K的状态。而且每次百度都是集中审核网站的,有的人辛辛苦苦好不容易把网站排名做到了首页,却在一夜之间网站排名和权重全部消失了,平时我们在进行网站搜索引擎优化的过程当中遇到网站降权的原因主要有哪些。

一般网站降权原因大家都清楚:

1、友情链接,友情链接中有被降权的,然后被牵连,而我的友链一般都是和熟人换得,都是朋友,都没出什么问题,所以应该不是这里。

2、网站改版,这个改版动作稍微一般都会导致降权,不过最近我没改版,首页基本没动。

3、内容采集和群发外链,这个动作大点肯定降权的,可我都没做,所以应该也没这事,我的网站是搜索引擎关键词排名博客,一般文章我都是自己编或者群里聊到的一些问题写成文章的,偶尔转载几篇。

4、空间和服务器问题,虽然哥买的不是万网的,但也没出现什么卡过,最多就是速度不太快,而且就我一个网站,也不可能被牵连,问题也不在这。

5、黑帽,堆砌关键词、隐藏关键词、桥接、黑链等我都没做过,没钱做,所以也不是。

6、被黑或者挂马,这些也没找到相关信息。

就这样北京网站开发网十互动找了一天都没找出结果来,想来想去都没想出其他原因,用站长工具模拟蜘蛛爬取网站也没发现什么问题,只能用最基本的杀手锏了,看网站日志,平时我很少看这个,一大堆的数字和字母,看了头大,现在逼不得已,只能看了,没想到问题还真在这里。

从日志上可以发现百度和谷歌的蜘蛛爬取都很正常,昨天一天来了7次,对于一个新站来说,7次算很多的了,一般有来2,3次估计就不错了,所以之前网站基本都是秒收的,可惜啊,不过这也说明我的网站还是没被百度抛弃的。

那问题会出现在哪里呢,只能看看蜘蛛抓取的内容,发现虽然抓取次数都很正常,但抓取内容很不正常,抓取的怎么都是打不开的页面,突然想起前几天由于一 个栏目的url不太符合优化,所以就改了一部分的URL,还设置了下ROBOTS.TXT文件,禁止抓取那些以前的url。

感觉不对头,怎么我让蜘蛛不抓这些以前的,现在却只抓以前的,现在正确的url都不抓,应该是robots文件写错了,就去看看,没想到真 是,disallow写成allow,不允许抓取旧的URL变成允许,允许抓取新的写成不允许,导致现在蜘蛛只抓取旧的url,蛋疼啊,而且这是上个星期 一改的,现在才发现,百度反应的速度也挺慢的。一个小小的错误,导致现在什么都没了,下午立马把robots文件改回来,更新了几篇文章,现在总算收录了 7个,不容易啊。希望过两天能彻底恢复过来。

7x24
售后服务支持
10
故障时长赔付
16
16年行业服务经验
20
售后服务人员
70
设计、开发团队
10
国内顶尖技术专家
1000
大型及上市企业
版权所有 © 北京网十互动科技有限公司 网站 APP 小程序 软件 备案号:京ICP备16050073号-2

电话咨询