前面一篇文章说了,javascript给我们带来很多的好处,但是它却是搜索爬虫的一道墙,对网站的seo非常不利。那么怎么在不影响网页效果而又对搜索引擎友好的前提下使用JavaScript,又不影响SEO效果呢?

1、要避免导航及网页链接使用JavaScript。导航和链接是搜索爬虫抓取网页的赖以生存之本,如果搜索爬虫无法抓取网页,则代表了网页不会出现在索引结果中,也就没有排名了。如果有希望蜘蛛抓取的目标页面需要转向,不要使用javascript脚本进行跳转,因为这样做的话蜘蛛完全无法获取到目标页面的地址,采用noscript标记进行目标url指定是一个好办法,因为蜘蛛能够正确识别noscript标记,并且一般情况下不会对浏览器显示产生影响。

2、尽量避免用JavaScript输出内容。特别是与关键词相关部分的内容,尽可能避免使用JavaScript来展现,否则毫无疑问是要降低关键词密度的。虽然ajax是一个好技术,尤其是在一些需要实时性要求比较高的系统中,可以很好的缓解服务器的压力,也可以实现需求时才查询取出数据内容,还可以对框架布局不产生影响,实现更炫的网页效果,但ajax的核心是通过javascript脚本来在需要时获取数据的技术,这样数据就不是在页面展示时就加载完成,那么就出现了第一项中所说的,蜘蛛获取不到这些内容,自然就无法抓取和爬行链接。本项内容可以参考“AJAX技术与SEO”和“QQ空间不能用来做SEO外链”。

3、如果上面两项无论如何都要坚持的话,也不是不行,可以做两套ui,一套有丰富的javascript供用户体验,另一套则为搜索引擎提供爬取支持,但这对维护来说就增加了非常大的难度。

以上的一些方法是消除JavaScript对搜索引擎的不利影响,搜索引擎无法对JavaScript进行识别(虽然Google目前能够做到对少量简单的JavaScript代码做出辨别,但那也应该只是Document write之类的简单代码)。那么换一个角度来说,我们完全可以利用JavaScript来过滤一些垃信息。