近年来为了更好的营造互联网环境,各大搜索引擎对网站的优化的要求逐渐提高,对于站长们来说优化最终的目的是为了网站的用户,懂搜索引擎优化知识的站长到处可见,但是往往他们知道的只是理论的东西,是否有能真正的了解搜索引擎真正的需求是什么,站长们也需要像分析用户一样去分析搜索引擎。
1、主要的搜索引擎 七个最主要的搜索引擎及各自包括的页面数:引擎alta vista northern light inktomi excite lycos infoseek web crawler页面数(百万页)1501251105550452(以上数据为1999年2月1日统计值)
2、两个最基本的词汇 搜索引擎(searchengine):通过运行一个软件,该软件在网络上通过各种链接,自动获得大量站点页面的信息,并按照一定规则进行归类整理,从而形成数据库,以备查询。这样的站点(获得信息==>整理建立数据库==>提供查询)我们就称之为“搜索引擎”。而所使用的软件一般叫做“spider”、“crawlers”等。
分类目录(directory):通过“人工方式”将站点进行分类而建立数据库,以提供查询,这样的站点叫着“分类目录”。典型的搜索引擎如altavista、excite、hotbot、inktomi等,而最重要的分类目录就是yahoo。
实际上无论“搜索引擎”还是“分类目录”,目标都一样:获得网站资料,建立数据库提供查询。只不过使用的方法不同。
“搜索引擎”因为依靠软件自动进行,因此,其数据库的容量非常庞大,但是伴随着查询结果往往不够精确;而“分类目录”由于依靠人工分类,查询得到的信息要准确些,但收集的内容非常有限。
我们平时把这两类统称为“搜索引擎”,在下面的讨论中我们将以“自动”的搜索引擎为主,至于“人工”的如yahoo,我将会在“中文yahoo”中单独讨论。
3、搜索引擎在查询时是如何排名的 最主要是根据一个站点的内容与查询词的关联程度,但是一个站点的内容搜索引擎又是如何确定的呢?——标题(title)、关键词(keywords)、描述(desc_ription)、页面开始部分的内容以及这些内容本身之间的关联程度。而且现在绝大部分搜索引擎都支持metatag。
另一个主要因素是一个站点在整个网络上的关联程度,也就是说一个站点在网络中其他站点出现的次数(linkpopularity)。
虽然不同的搜索引擎有各自的“游戏规则”,但是请记住“关联程度”这个词,包括站内和站外的(整个网络)。
4、搜索引擎工作的三步 第一步是“spider”软件访问一个站点,并通过其中的链接阅读该站点的页面,而且“spider”会不时的自动回访该站点以检查变化情况;该“spider”获得的站点信息形成一个巨大的网络信息库,如同整个网络上已经访问站点的备份,当然记录的不是所有的内容。这也就是我们所说的数据库。第三步是查询服务。这是通过查询软件实现的,当你输入查询内容,该软件就会在其数据库中找到相关内容,然后按照“它的”规则进行排序。
搜索引擎是用户和网站之间的桥梁,它起到的永远是传达的作用。用户需要从搜索端获得信息,你可以给搜索端提供信息,只有真正了解搜索端需要什么东西,站长们才能去提供信息资源。站长们要想利用好
搜索引擎优化,首先就要了解搜索引擎的习惯,搜索引擎是怎么收录网站的、通过什么算法、哪些途径可以提供权重、哪些内容能为用户提供资源等。只有把基本的原理给学会了,才能更好的掌握搜索引擎需求,提高网站的整体运营模式。