您的位置:网站排名优化  
搜索引擎
网络营销


网站被降权是因为没有添加robots.txt文件:大意失荆州


作者:蜱町   创作时间:2014年6月22日 上午11:07

由于这几天发现本站被百度降权了,所以心里一直咕噜着:为何被降权了?本人站长并没有对网站进行任何的更新与修改啊(这几个月内),于是只能用最老土的办法处理了一下:

1.首先在百度site一下自己的域名,任何看到百度竟然收录了自己放在“cs”路径下的与根目录重复的网页,这个cs只是自己拿来进行排版检查网页在各个浏览器是否显示正常用的:避免搜索引擎在这个时候以为我用刷新页面的方式来提高流量:认为我在对网站进行流量作弊。现在惨了:这个路径下面的页面竟然被百度无意收录了,这时只能亡羊补牢,马上添加了一个robots.txt的文件到根目录,告诉爬行蜘蛛不要抓取这个文件夹里面的页面。其实很多做seo的站长,建立网站的时候,就马上会添加这个robots的文件的了,其实真的很有必要,现在自己才领悟到这个文件的重要性:迟了!


2.通过登录百度站长,发现
外链工具里面有较多垃圾外链,而且这些外链指向的目标网址也是已经不存在的了,所以马上对这些外链进行“屏蔽处理”,告诉百度这些外链我不想要了,请给予删除!
当然还在站长反馈中心申诉了一下:告诉百度我没有对网站进行作弊的,请求取消降权处理!
其实以上的作用本人也感觉做了用处不是很大,只是做了会比不做稍微好一点点,那就做做吧:看看能否收到意想不到的效果!


相关文章: http://www.w3000.cn/yahoojp.asp