为什么要了解搜索引擎原理(算法)?

了解搜索引擎

一个合格的SEO必须了解搜索引擎的基本工作原理,也就是SEOer们口中常说的“各种算法”,例如:
百度冰桶算法:百度近期,经过技术挖掘,我们发现部分网页通过色情动图、露骨文本、赌博等等吸引眼球的形态诱导用户点击非法广告,为了改善用户体验以及引导行业生态向积极健康的方向发展,百度搜索再次升级冰桶算法,将针对发布恶劣诱导类广告的页面进行打击,降低其在百度搜索系统中的评价。在此提醒各位站长,请尽快下线恶劣的诱导类广告,以免被策略命中影响网站排序。
       

百度天网算法:百度网页搜索发现部分站点存在盗取用户隐私的行为,主要表现为网页嵌恶意代码,用于盗取网民的QQ号、手机号。而许多网民却误认为这是百度所为。为此,百度网页搜索和百度安全联合研发天网算法,针对这种恶意行为进行打击。有过盗取用户隐私行为的站点请尽快整改,待策略复查达到标准可解除惩罚。
百度蓝天算法:百度持续打击新闻源售卖软文、目录行为,近日百度反作弊团队发现部分新闻源站点售卖目录,发布大量低质内容现象仍然存在,此举严重违反新闻源规则,并影响用户搜索体验。针对此情况,百度推出“蓝天算法”,旨在严厉打击新闻源售卖软文、目录行为,还用户一片搜索蓝天。
触发“蓝天算法”问题站点将被清理出新闻源,同时降低其在百度搜索系统中的评价,请其他新闻源站点尽早自查网站内容,有则改之无则加勉。“蓝天算法”全力打击有损用户体验的行为,决不手软。

百度绿萝算法:我一直不相信百度绿萝算法竟然可以算出来你的链接是否购买的,但是实际百度却做到了,其中主要原理还是根据一个网站对另一个网站的链接判断,是否有反向链接、链接个数来进行判断。

百度石榴算法:石榴算法主要打击的对象为低质量页面,其中百度蜘蛛主要是根据网站html代码来抓取的,并且搜索引擎根据文章的标签(包含排版)、重复读来进行判断网站的质量。

百度星火计划:星火计划的原计划是为了打击抄袭者,其星火计划的原理非常简单了,也就是判断重复读来决定网站是否抄袭,同时百度蜘蛛也肯定了自己的抓取程序,目前正在往每一个网站时刻爬取靠拢。

百度瑞丽算法:2015年元旦,百度内部相关程序出现了一些故障,导致国内大量的CN和CC域名站点被K,而不少人预测这是瑞丽算法上线的结果。不过从种种迹象推测,瑞丽算法应该是一种误传。

360后羿算法:据官方表示,“后羿算法”上线后,对于内容丰富的优质网页(如原创、稀缺资源、精心编辑的内容页等),会增加其在用户面前展现的机会;对于滥用采集手段的行为(如整站大规模采集,页面内容拼凑、含有大量广告干扰用户阅读、恶劣弹窗跳转、大量堆砌无关热词、站内搜索结果页等),会显著降低其展现机会和网页收录量。

360悟空算法:360新上线的“悟空算法”,将与360安全卫士、360浏览器等安全产品一起,全方位保护上网用户安全,避免遭受被黑网站伤害。

360ICO算法:ICO算法是对已经入索引库的低质量URL和无效URL数据进行清理的算法,在不同的阶段会对不同类型的无效数据进行清理,该算法是一个长期执行的算法。(ICO 全称:Index clear optimize)
算法公布规范:一次清理超过10亿页面的算法360搜索都将提前公布告知站长,并告知算法优化处理的主要方向。

更多算法的详细解析请大家继续关注梁宏兵SEO,希望能够帮助到大家!

很多看似令人迷惑的SEO问题及解决方法,其实都是从搜索引擎原理出发,都是自然而然的事情。

 

为什么要了解搜索引擎原理(算法)?

 

说到底,SEO是在保证用户体验的基础上尽量迎合搜索引擎。与研究用户界面及可用性不同的是,SEO既要从用户出发,也要站在搜索引擎的角度考虑问题,才能清晰地知道怎样优化网站。SEO人员必须知道:搜索引擎要解决什么问题,有哪些技术上的困难,有什么限制,搜索引擎又怎样取舍。

从某个角度来说,SEO人员优化网站就是尽量减少搜索引擎的工作量、降低搜索引擎的工作难度,使搜索引擎能更轻松、快速地收录网站页面,更准确地提取页面内容。不了解搜索引擎工作原理,也就无从替搜索引擎解决一些SEOer力所能及的技术问题。当搜索引擎面对一个网站,发现要处理的问题太多、难度太大时,搜索引擎可能就对这样的网站敬而远之了。

很多SEO技巧时基于对搜索引擎的算法而定的。下面举几个例子。

我们都知道网站域名和页面权重非常重要,这是知其然,很多人不一定知其所以然。权重除了意味着权威度高、内容可靠,因而容易获得好排名外,获得一个最基本的权重,也是页面能参与相关性计算的最基本条件。一些权重太低的页面,就算有很高的相关性也可能无法获得排名,因为根本没有机会参与排名。

比如很多SEOer津津乐道的“伪原创”。首先,抄袭是不道德甚至违法的行为,把别人的文章拿来加一些“的、地、得”,段落换换顺序就当成自己的原创放在网站上,这是令人鄙视的抄袭行为。理解搜索引擎原理的话,就会知道这样的伪原创也不管用。搜索引擎并不会因为两篇文章差几个字、段落顺序不同,就真的把它们当成不同的内容。搜索引擎的权重算法要先进、准确得多。

再如,对大型网站来说,最关键的问题是解决收录。只有收录充分,才能带动大量长尾关键词。就算有人力、财力的大公司,当面对几百万几千万页面的网站时,也不容易处理好充分收录的问题。只有在深入了解搜索引擎蜘蛛爬行原理的基础上,才能尽量使蜘蛛抓得快而全面。

上面所举的几个例子,读者看完搜索引擎原理简介这一节后,相信大家一定会对搜索引擎有更深刻的认识!

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: