在之前发表的关于网站不能被充分收录的个人见解中提到了两点,以下是我认为网站不能被充分收录的另外三点。

第一:页面没有被访问过,特别对于一些大型的内容型网站来说,网站上的内容页面特别多,网站之间如果不能很好的建立内链,很多页面可能就会面临着被沉底不收录的现象,这些页面大多数离网站首页深度比较深,蜘蛛无法对页面进行爬行,导致不能被蜘蛛收录。或者是链接到此页面的链接都是加了nofollow标签,不传递任何权重的链接。

因为这种原因导致网站不被充分收录比较冤枉,对于网站的建设来说,最好不要在网站上使用nofollow标签、JS代码、或者蜘蛛不能识别的转向等。对于网站页面深度比较深的情况,站长们可以完善网站的内链建设,不要网站的页面变成独立的页面,建立好导航和内链,或者给想要收录的页面增加外链,提高页面在搜索引擎中的权重值。

第二:被蜘蛛当做是作弊的内容,网站中大量的使用黑帽SEO,作弊的手法优化页面,这样的页面蜘蛛是不会给予收录的。网站上长期使用隐藏文字在页面上进行关键词堆积,网站上对蜘蛛检索到存在隐藏文字和链接,这时你的网站很有可能会被蜘蛛从索引中删除,不会再次出现在搜索页面中。

站长们可能会问什么是作弊的内容,如最初的作弊方法使用和背景颜色相同的文字,堆积大量的关键词,这种作弊方法很容易被检测出来;使用noscript标签,告诉浏览器当页面上有JS时,当浏览器关闭时,页面上该显示什么内容,事实上是在noscript标签中堆积很多关键词,这种做法是相关有危险的,很容易就会导致内容被删除。

第三:低质量内容垃圾站点,除去上面说到的4点优化方法上的原因,还有个重要的不可忽视的就是页面本身的问题,搜索引擎识别能力逐渐加强,对于非高质量非原创的内容,蜘蛛有一定的识别能力,不管是本身网站的重复内容,还是网站从外部获得的重复内容,蜘蛛都能一定程度的对其识别,对于重复的内容页面,蜘蛛不会继续放入自己的数据库,甚至会对一些低权重的网站,进行删除索引的操作。

在互联网垃圾泡沫的时代,要想真正的做到收录充分,网站权重高,还是要坚持去做高质量的内容,这样才能长久在业界生存。

我认为即使网站权重不高,只要网站不犯以上说到的5点错误,网站想要被完全充分的收录还是可以的,互联网垃圾泡沫时代永远不会结束,但是只要站长们自己不做为其中一员,认真做自己的优化,不触犯搜索引擎的规则,迎合算法的更新,网站并可长期稳定的存活下来。