首页 > 电脑网络 > 互联网 > 网络搜索引擎是如何工作的

网络搜索引擎是如何工作的
2011-12-12 23:33:36   来源:   点击:

     

      搜索引擎在寻找特定信息的广袤的关键万维网 。如果没有先进的搜索引擎,它实际上是不可能找到不知道一个特定的Web上的任何网址。但是,你知道搜索引擎是如何工作的呢?你知不知道是什么让一些搜索引擎比其他人更有效?

      当人们使用网络的搜索引擎,它们通常是指实际的搜索,通过搜索数据库形式的HTML文件,最初由聚集机器人 。

      基本上有三种类型的搜索引擎:采用机器人(称为爬虫;蚂蚁或蜘蛛)和那些人类意见书供电;和那些是两者的混合体。

      履带式,基于搜索引擎使用自动软件代理(所谓的抓取)访问一个网站,阅读工地的实际信息,阅读该网站的元标签和也遵循,该网站连接到执行索引的所有链接的链接网站以及。履带式返回的所有信息反馈给中央存款,数据索引。抓取工具会定期返回到网站检查已经改变的任何信息 。这种情况发生的频率是由搜索引擎的管理员。

      人肉搜索引擎依靠人类提交的信息,随后索引和编目。只有提交的信息被放到索引。

      在这两种情况下,当您查询的搜索引擎查找信息时,你实际的搜索,通过搜索引擎创建你实际上并没有搜索网站的索引。这些指数是巨大的数据库的信息收集,存储和随后搜查。这就解释了为什么有时一个商业搜索引擎,如Yahoo!或Google,搜索,将返回的结果,事实上,死链接。由于搜索结果是根据该指数,如果该指数以来成为无效的搜索引擎将网页链接仍然是一个积极的,即使它不再是一个网页尚未更新 。它会保持下去,直到更新索引 。

      那么,为什么会在不同的搜索引擎相同的搜索产生不同的结果呢 ?这个问题的答案,部分是因为不是所有的指数都将是完全一样的 。这取决于什么蜘蛛找到或人类提交。但更重要的是,并非每一个搜索引擎都使用相同的算法搜索指数。该算法是搜索引擎使用索引信息的相关性,以确定用户正在寻找什么。

      搜索引擎算法扫描的元素之一,是在网页上的关键字的频率和位置 。那些更高的频率通常被认为更相关。但搜索引擎技术越来越复杂,在试图阻止什么是被称为关键字堆砌,或spamdexing 。

      另一种常见的元素,算法分析的方式,页面链接到其他页面在Web。通过分析页面链接到对方,引擎能够确定哪些页面(如果链接的页面的关键词是类似原来的页面上的关键字)和该网页是否被认为是“重要”和值得加强排名。正如技术日趋成熟,忽略关键字堆砌,它也变得更精明的人工建成自己的网站联系,以便建立一个人工的排名的网站站长。

      你知道吗...

      搜索互联网,创建于1990年的第一个工具,被称为“阿奇” 。公共匿名FTP服务器上的所有文件下载的目录清单;创建一个文件名 ​​的搜索数据库。一年后的“gopher”创建。它索引的纯文本文件。“婆婆”和“Jughead”走过来搜索Gopher的指标体系。第一个真正的网络搜索引擎是由马修格雷在1993年,被称为“Wandex” 。

相关热词搜索:网络 搜索引擎 工作

上一篇:如何部署一个无线局域​​网
下一篇:因特网和万维网之间的区别