网站链接: 环球农商网
当前位置: 首页 > 资讯动态  > 平台资讯

湖南网站优化对SEO中搜索引擎反作弊的一点认识

2019/3/15 11:48:38 人评论

    1、为什么搜索引擎要反作弊?

  对于SEO的作弊行为,几乎所有搜索引擎都是反对的。SEO spam 的破坏性是相当巨大的,它不仅直接破坏了搜索引擎网站赖以生存的关键所在,即每日数以亿计的用户搜索体验,同时也破坏了搜索引擎获得收益的主要来源,如竞价排名以及相关广告。这个很容易理解,做SEO归根结底要从客户体验出发,不能为了SEO而SEO,搜索引擎算法的不断更新,更科学更人性化就是为了能给客户一个满意的搜索结果,而作弊行为必将破坏这种搜索体验,可以说触及了搜索引擎的根本价值所在,因此被严厉打击是情理之中。

  搜索引擎反作弊类同于互联网的病毒与反病毒。因此,作为搜索引擎,对待垃圾和作弊网站的态度也是高度一致:惩罚或者删除。几乎所有的搜索引擎官方站点也公布了一些原则,对作弊行为进行界定,并给出了对应的惩罚措施。

  
    2、 如何反作弊

  搜索引擎作弊其实不仅仅是损害了搜索引擎拥有者的利益。从长远看,如果网站的本身质量并没有提高,而是通过搜索引擎作弊来吸引浏览者,那么网站最终还是得不到用户的青睐,无法留住浏览者,最终受到伤害的还是网站本身。

  虽然通过技术手段不可能完全杜绝各种搜索引擎作弊行为,但还是能够有效减少这些行为。解决办法如下:

  a)加强页面内容的智能判断。对于关键字堆砌和虚假关键字这两种作弊行为,应加强智能判断。例如从页面的部分提取,而非(title)(/title)或者(meta)(/meta)部分,判断关键字是否仅在某一段落内重复,以去除恶意重复现象。

  b)网络爬虫隐身。无论是隐形页面、偷换页面,还是重定向,都会对网站的当前访问者进行判断,从而对网络爬虫和普通用户作出不同的反应。搜索引擎应该让一部分网络爬虫隐身,装扮成普通用户来访问网站,对网站进行测试,便可以有效杜绝这种类型的作弊。

  c)网站历史记录。对网站的页面变更记录其历史。一般来说一个网站的非内容部分的页面变化是很小的,如网站目录结构、页面结构、很多特殊连接都是不经常变化的。如果某一个网站变化较大,就有必要对此网站作进一步的审核。这样做可以杜绝偷换网页这一作弊方法,并提高人工审核的效率。

  d)网站评级。一般来说,好的网站上的链接质量也会很高,而一些垃圾网站上的链接也多是与其相似的网站。也就是说,网站也是聚类生存的。因此,可以对网站进行评级归类,以有效预防通过垃链连接来作弊的网站。

  通过以上四种方法,可以有效提高搜索引擎的反SEO作弊能力,但这样并不能完全杜绝SEO作弊。要想提高搜索引擎的反作弊能力,还必须要人的加入,综合使用各种方法,逐级分层审查:

  第一层是提高技术手段。例如加强页面的智能分析和网络爬虫的抓取能力,增加爬虫隐身能力。其目的是进行最底层的反作弊判断,判断的对象是页面,由电脑进行海量的重复性作业。

  第二层是网站分析。通过网站的历史记录与网站评级系统,对网站进行分析评价。目的是从中筛去合法的,找出有SEO作弊嫌疑的网站,判断的对象是网站,由电脑和人进行比较筛选。

  第三层是最终评审。由人对筛选出的嫌疑网站进行试用、评审。判断的对象是网站,完全由人完成,并得出最终结论。通过电脑与人工的合作作业,可以基本上杜绝搜索引擎优化中的作弊行为,使搜索引擎的结果更符合浏览者的需要。

  
    3、google是如何做的

  一个搜索引擎成功的反作弊策略一定是这样的:

  a) 允许算法被探测出来,而且即使算法被公布,搜索结果的公正性都不会受太大影响。要这么做的原因就是不希望和作弊的人陷入到一种猫捉老鼠的死循环当中。如果老是以堵漏洞的做法来修正算法,那永远都没有尽头。出于这样的考虑,搜索引擎会把那些无法被作弊的的因素在排序算法里放到比较重要的程度。
    b) 尽可能用一切技术手段自动检测,当技术手段不能解决问题,就用人工来解决。然后把人工发现的问题又反馈给自动检测机制,使自动检测越来越完善。

  现在的google基本上就是这样来做的。在现有的排序规则中,那些无法作弊的和能精确反应内容的因素,都是很重要的排序因素。

  当然Google也不排斥频繁的调整算法,这也有出于给用户一个最好的搜索体验考虑的。至于技术检测和人工审查,google也一直在做。

  google很早就有匿名蜘蛛来检测一个网站是不是在作弊的。如果去分析网站的服务器LOG日志,就会发现它们。你会发现,有的爬虫,通过IP查询是来自google,但是它没有自己的声明(user-agent),这就是google的匿名爬虫。它会判断你有没有对google爬虫特别对待,做一些隐藏页面,还会解析Javascript文件和CSS文件等等。Google也有人工审核机制,从we

相关资讯

  • document.cookie:客户端操作cookie

    我们已经知道,在 document 对象中有一个 cookie 属性。但是 Cookie 又是什么?“某些 Web 站点在您的硬盘上用很小的文本文件存储了一些信息,这些文件就称为 Cookie。”—— MSIE 帮助。一般来说,Cookies 是 CGI 或类似,比 HTML …

    2019/4/12 8:18:11
  • 用ASP实现分级权限控制

    本文实现的是一个帐务管理系统中分级权限的控制,程序使用ASP和JavaScript编写,在装有IIS4.0的win NT服务器上运行,速度快,易维护。  权限级别划分如下:  ①、院长和财务科长:不能输入,可以无限制查询、统计;  ②、副院长:不能输入,可以查询、统计其分管部…

    2019/4/12 8:18:11
  • ASP实现Rewrite模拟生成静态页效

    以前刚刚懂404.asp的时候,曾经幻想把所有程序代码写到404.asp中,实现一个模拟生成静态网页的站,如果程序小还可以,用404.asp实现Rewrite还是一个不错的选择,如果程序代码多达100000行,恐怕就要开始爬了  直到看到asp的Server.Transfer,用404模拟生成静态页的站的念…

    2019/4/12 8:18:11
  • ASP随机涵数生成100条8位字母和数字混合密码

    <%for i = 1 to 100%><%Randomizepass=""Do While Len(pass)<8 随机密码位数num1=CStr(Chr((57-48)*rnd+48)) 0~9num2=CStr(Chr((122-97)*rnd+97)) a~zpass=pass&num1&num2loop原创:www.devdao.com%><%=pass%><br><%next…

    2019/4/12 8:18:11

共有条评论 网友评论

验证码: 看不清楚?