在国内SEO中,百度是一个比较敏感的话题,百度对网站的要求很高,只要网站碰到问题,百度就可能直接K站。当然,我们也经常看到,有些客户的站长久不被百度收录,让网站在搜索引擎中的推广发展一筹莫展。 那么,网站不被百度收录有哪些原因呢? 1.您的网站所在服务器不稳定,被百度暂时性去除,稳定之后,问题会得到解决。 服务器不稳定对于网站发展来说是致命的要害,想要网站在搜索引擎中获得长久的发展,必须保证服务器的稳定性。虽然百度官方的意思是暂时性去除,问题解决以后会得到解决,但是,如果长久不稳定,网站必定也会遭受降权惩罚,想了解更多主机对SEO方面的影响,大家可以参见文章:网站主机对seo的影响。 2.您的网站有设计缺陷,导致spider无法正常抓取。 当然,设计缺陷只要来源于不懂SEO的网站设计者,很多网页设计公司的程序员并不懂SEO,他们只会给客户展示美观,或者是开发一些臃肿的垃圾程序。对于现在的搜索引擎来说,现在主要的设计缺陷一般为flash动画和框架结构。 3.您的网页不符合用户的搜索体验。 这个问题比较笼统,通俗来说就是您的站不是用户想要的网站,网页内容没有价值或者是网站内容与网站主题不相关等。想要获得网站长久发展,用户体验也是关键要素。 4.网页是复制自互联网上的高度重复性的内容。 当然,不仅是百度,其他搜索引擎一样反对高度重复性内容,所以,要想运营网站,内容也是必要的保证,完全靠复制内容的网站是无法再搜索引擎生存的。 5.网页做了很多针对搜索引擎而非用户的处理,使得用户从搜索结果中看到的内容与页面实际内容完全不同,或者使得网页在搜索结果中获得了不恰当的排名,从而导致用户产生受欺骗感觉。 这种欺骗行为只要来自隐藏文字、网页内容不相关、门页等作弊行为,这种方式对搜索引擎的破坏也是很大的,百度对此要求很高,会对整个网站内容进行判断,然后分析出你的站主题相关性。 6.您的网页内容有不符合国家法律和法规规定的地方。 只要内容部符合法律,网站所有网页都会被屏蔽,也就是网站不会被搜索引擎收录,所以,不管网站的任何地方甚至内页或者是导出链接,都不能出现任何违法信息,否则可能导致网站不被百度收录。 7.您网站的robots协议禁止百度抓取。 这个问题就不用说明了吧,只要你网站上面有robots.txt文件禁止了百度的抓取,网站将不会被百度收录,robots.txt文件的写法如下: User-agent: Baiduspider Disallow: / 8.其他技术性问题。 其他技术问题就包含了很多内容,随着互联网的发展,不管任何端都可能遭受淘汰,今天的程序可能在明天就被淘汰,同时也可能遭受搜索引擎的淘汰,SEO就是一个不断跟进的技术,不断研究搜索引擎变化的过程。 9.网站尚未在互联网中曝光 您也可以到百度网站登陆上免费提交您的网址:http://www.baidu.com/search/url_submit.html 以上9点完全来自百度官方回复,如果你的网站不被百度收录,请查找自己网站的原因,百度只是一个机器而已,上面9个要点是官方公布的9个要点,只要触犯其一,网站都可能不会被百度收录。