反作弊和人工干预意在去除怎么样的内容
随着近些年互联网信息量的不断增加,现阶段搜索引擎的算法已经不能满足用户的需求,在日常搜索中我们不难发现搜索结果中充斥着大量的垃圾内容,怎么样屏蔽掉这些垃圾内容已经成为各大搜索引擎的重要任务。
几乎所有的搜索引擎都是反对SEO的作弊行为的,SEO spam破坏了搜索引擎赖以生存的关键所在,即每天数以亿计的用户搜索体验,在干扰竞价排名以及相关广告的同时损害了搜索引擎获得收益的主要来源。为了打击这种作弊行为,搜索引擎的算法总是在不断的更新。搜索引擎反作弊的行为类似于互联网的病毒与反病毒,搜索引擎会删除或惩罚作弊网站。百度或者Google等已经给出了作弊行为的界定,并给这些作弊行为给出了相应的惩罚措施。
出于这样的原因,搜索引擎都将反作弊重视起来。仅想通过作弊行为就想吸引留住浏览者是不可能的,如果网站本身没有质量,最终还是会被抛弃。所以从长远来看,搜索引擎作弊不仅仅损害了搜索引擎拥有者的利益,也给自身网站带来了隐患。在技术层面上,搜索引擎作弊行为是不可能被完全被消除的,但可以有效地减少。
A.网络爬虫隐身
无论是隐形页面、偷换页面,还是重定向,都会对网站的当前访问者进行判断,从而对网络爬虫和普通用户作出不同的反应。搜索引擎应该让一部分网络爬虫隐身,装扮成普通用户来访问网站,对网站进行测试,便可以有效杜绝这种类型的作弊。
B.加强页面内容的智能判断
对于关键字堆砌和虚假关键字这两种作弊行为,应加强智能判断。例如从页面的部分提取,而非(title)(/title)或者(meta)(/meta)部分,判断关键字是否仅在某一段落内重复,以去除恶意重复现象。
C.网站评级
一般来说,好的网站上的链接质量也会很高,而一些垃圾网站上的链接也多是与其相似的网站。也就是说,网站也是聚类生存的。因此,可以对网站进行评级归类,以有效预防通过垃链连接来作弊的网站。
D.网站历史记录
对网站的页面变更记录其历史。一般来说一个网站的非内容部分的页面变化是很小的,如网站目录结构、页面结构、很多特殊连接都是不经常变化的。如果某一个网站变化较大,就有必要对此网站作进一步的审核。这样做可以杜绝偷换网页这一作弊方法,并提高人工审核的效率。
利用以上几种方法,可以很好的预防SEO作弊,但不能完全的消除SEO作弊,要想更好的提高搜索引擎反作弊的能力,还需要人为使用各种发法去分层审查。
第一层是提高技术手段。例如加强页面的智能分析和网络爬虫的抓取能力,增加爬虫隐身能力。其目的是进行最底层的反作弊判断,判断的对象是页面,由电脑进行海量的重复性作业。
第二层是网站分析。通过网站的历史记录与网站评级系统,对网站进行分析评价。目的是从中筛去合法的,找出有SEO作弊嫌疑的网站,判断的对象是网站,由电脑和人进行比较筛选。
第三层是最终评审。由人对筛选出的嫌疑网站进行试用、评审。判断的对象是网站,完全由人完成,并得出最终结论。通过电脑与人工的合作作业,可以基本上杜绝搜索引擎优化中的作弊行为,使搜索引擎的结果更符合浏览者的需要。
这段时间百度又提出了有效收录的概念,所谓有效收录就是收录的文章对用户有价值。怎么样的文章是对用户有价值的了?最基础的来说,首先要有用户来搜索这个文章中包含的关键词,结合之前CRAZYSEO工程师的分析文章,可以得出一篇有效收录的文章首先要在文章标题中包含有用户搜索的关键词,因此我们在编辑文章的时候务必要重视title的撰写,同样的一篇文章,如果有一个出彩的标题,会有意想不到的效果。
Post a Comment