通过了解搜索引擎基本工作原理掌握SEO优化技巧
本文章由SEO优化指导用户上传提供
对于一个SEO新手来说,你不需要考虑太多的东西,明白了伪原创也是制胜的法宝的真谛,了解获取外链资源的方法,足以让你受益匪浅。而随着SEO工作的不断深入,你也就会慢慢的发现充分利用好网络给予你的一针一线的重要性。了解搜索引擎的工作原理,其意义自然不在话下。
搜索引擎的工作原理,简单来说,主要是三个步骤:首先在互联网中发现、搜集网页信息;同时对信息进行提取和组织建立索引库;再由检索器根据用户输入的查询关键字,在索引库中快速检出文档,进行文档与查询的相关度评价,对将要输出的结果进行排序,并将查询结果返回给用户。排名这一块设计算法问题,暂且不去深究,这里主要说说爬行和抓取以及预处理两个方面。
搜索引擎爬行和抓取原理
通过蜘蛛程序,各搜索引擎在访问网站时都会先去抓取网站根目录下的robots.txt文件,从而获取网站中被禁止爬取网址的信息。对于被禁止抓取部分的网址,不会被搜索引擎收录。
每个独立的搜索引擎都有自己的网页抓取程序爬虫(spider)。为了获取更多的信息,蜘蛛会通过顺着页面上的链接来抓取页面。从理论上来说,蜘蛛可以通过链接抓取整个互联网上的信息,但是在实际操作中,考虑到页面的复杂程度,蜘蛛会采取深度抓取和广度抓取两种方式来进行页面抓取的工作。为了避免重复爬行和抓取,搜索引擎会建立包括已发现但未被抓取以及已被抓取的两个网页地址库进行参考对比,而被抓取的页面会进入原始的页面数据库。到此为止,原始数据库的建立就告一段落了。
蜘蛛抓取到网页后,建立原始数据库,搜索引擎会对网页进行文字提取的处理,当然,除了页面上显示的文字外,搜索引擎还会对诸如meta标签、flash替代文件,锚文本、alt标签等部分的文字进行提取。提取文字完毕,便会进入下一个阶段:分词。
不管百度算法怎么样,但是不可否认的是,百度的中文分词技术在搜索引擎中的霸主地位无人可以撼动。对于页面上抓取到的文字,搜素引擎会进行分词处理,比如将“顺的推网站优化”分为“顺的推”、“网站优化”两个部分。而分词的方法,一般会有词典与统计两种手段。词典不需要太多解释;至于统计,是指通过分析大量文本从而计算字与字之间相邻出现的概率,概率越大,越容易形成一个词。百度目前是将两种方法结合使用,来达到佳的效果。
说到这里,大家会问,针对一些中文中常出现的词,比如“的”、“了”、“呀”之类没有实际意义但是使用频率又很高的词,会怎么样处理呢?答案是剔除,从而提高搜索引擎的计算效率。
在浏览网页的信息时,我们会发现,有一些板块,在网站是重复出现的,比如“导航”、“广告”等,这部分东西,对于所属页面的显示内容来说,并没有实际的意义。搜索引擎也会将此部分内容进行处理,从而筛选出所收录页面阐述表达内容的终文字部分。当然,文字部分筛选出来之后,搜索引擎还会对各个网页上所显示的终文字内容进行对比,从而删除掉重复的内容进行显示。
经过上述的几个步骤,就可以建立索引库了,此时的索引会分为正向索引和倒排索引两个阶段。正向索引,可以简单的理解为将收录页面的网址为主键,以该页面上进行分词处理之后的结果为内容建立起的数据库,如下图所示。
通过了解搜索引擎基本工作原理掌握SEO优化技巧
正向索引结束,我们可以发现还不能用于排名,这时就需要倒排索引,即以关键词为主键,以包含该关键词的网址及对应内容为内容建立索引数据库,如下图所示。
当用户以关键词查找信息时,搜索引擎会在数据库中进行搜寻,如果找到与用户要求内容相符的网站,便采用特殊的算法——通常根据网页中关键词的匹配程度,出现的位置、频次,链接质量等——计算出各网页的相关度及排名等级,然后根据关联度高低,按顺序将这些网页链接返回给用户。
除非注明,否则均为SEO优化顾问服务_零基础SEO优化指导全网营销【顺的推SEO】真实故事改编,转载必须以链接形式标明本文链接。