如何避免蜘蛛陷阱

办公百科2022-04-01 13:16:01未知

如何避免蜘蛛陷阱

  有一些网站设计做的对于搜索引擎来说很不友好,就导致了不利于蜘蛛的爬行和抓取,其实这样就构成了一个蜘蛛陷阱。那么,哪些做法不利于蜘蛛爬行和抓取呢?SEOer们又应该怎么去避免这些蜘蛛陷阱呢?

  一、框架结构


  虽然说框架结构对网站的维护和更新有一定的方便性。但是,它不利于搜索引擎蜘蛛抓取。这也就是现在框架结构不流行的因素之一。


  二、Javascript链接


  因为JS有很多吸引人们眼球的惊人的各种效果,很多站长呢,就用Javascript脚本做一些导航。其实,Javascript同样也是比较严重的蜘蛛陷阱之一。


  当然,有的搜索引擎是可以获得Javascript上的链接,甚至可以执行脚本并跟踪链接。但对于一些权重比较低的网站来说,还是大可不必浪费时间,不如多更新一些高质量的文章,多做几个外链。


  三、flash


  有些站长为了让网站视觉效果精彩异常,他们就在网站上整一大块Flash。但是殊不知这也就造成了蜘蛛陷阱。因为搜索引擎蜘蛛抓取的只是HTML代码,只是一个连向Flash文件的链接,而没有文字内容。无论你做的看上去是多么的美,搜索引擎它看不到,也就不能索引任何的文字信息,也就无从判断他的相关性。所以说,我们应该尽量的去避免或者减少Flash的使用。


  四、Session ID


  如果我们的网站使用Session ID跟踪用户访问,这样就会出现一种现象,搜索引擎每一次访问我们的页面时出现一个不一样的Session ID,即使访问的是同一个页面,它也会出现不一样的ID,但是内容却是一样的,就形成了大量的重复性内容,这也就形成了一个蜘蛛陷阱,也不利于网站的优化。那么我们通常建议大家使用cookies而不要生成Session ID。


  五、各种跳转


  搜索引擎对跳转是比较敏感的。如果说,必须要跳转的话,搜索引擎还是推荐使用301转向。其他的跳转方式对搜索引擎都不利,就是因为一些黑帽SEO经常使用转向欺骗搜索引擎和用户。所以不到迫不得已就不要使用其他的跳转。


  六、动态URL


  所谓动态URL就是指网址里面带有问号、等号以及一些参数等等。一般情况下来说,动态URL也是不利于蜘蛛抓取的,我们应该避免。


  七、要求登录


  搜素引擎蜘蛛他不会填写用户名、密码、验证码。那么你的这些内容也就不会被他发现。


  八、强制使用Cookies


  有些网站就想记住用户的登录信息、跟踪访问路径等,强制的去使用Cookies。如果说,互联网用户的浏览器没有启用Cookies,那么这样以来就会导致此页面无法正常显示。简单来说,强制使用Cookies只能造成搜索引擎蜘蛛无法正常访问。


本文标签: ,建站  ,网页设计  ,蜘蛛  ,陷阱  

相关推荐

猜你喜欢

大家正在看