bokee.net

其他职业博客

正文 更多文章

上海网站优化:搜索引擎的网页收集原理

按部就班的做外链,站内优化更新文章自然可以让网站有个稳定的排名,但如果要网站突破瓶颈或者让一个新站加快收录就要懂得搜索引擎的工作原理了,搜索引擎工作的第一个步骤就是收集网页,也就是我们常说的蜘蛛爬行,说起来很简单,但实际上搜索引擎抓取网页的原理是很复杂的,下面笔者就根据自己的理解介绍一下几点重要的搜索引擎网页收集的原理。

1.搜索引擎对于网页数据的收集是预先收集而非在用户搜索的时候即时收集显示的,网络上庞大的信息量决定了搜索引擎不可能在用户每次搜索的时候再收集数据,我们查询得到的结果都是搜索引擎预先处理后放到数据库中的数据。

2.蜘蛛负责采集网站数据但蜘蛛的行为是受程序控制的。搜索引擎的蜘蛛每时每刻都在网络上爬行,它的爬行是有规律性的,搜索引擎会根据网站的更新规律来调度蜘蛛从而提高工作效率,譬如一个天天更新的网站蜘蛛可能会每天都来采集数据,相反,一个网站如果一周才更新一次,蜘蛛在爬行几次抓住更新规律后可能会一周来爬行一次,所以说,有规律的更新网站更有利于内容的收录和快照更新。

3.搜索引擎收集网页是从一些种子站点开始的,蜘蛛的爬行必须有一个起点,这些起点就被称为种子站点,这些站点通常是一些权重很高的网站,例如,网易,hao123等,所以说对于一个新站,如果你能在这些网站首页上留一个链接很可能会被妙收的,因为这些站点的权重高,蜘蛛几乎每时每刻都来这些网站采集数据。

4.搜索引擎有两种爬行策略:深度优先和广度优先。对于不同的站点搜索引擎的爬行策略也是不一样的,深度优先指的是蜘蛛在爬行到一个网站时候顺着一个链接一直往下采集,譬如首页-栏目页-内容页,一直到找不到下级链接为止,而蜘蛛在遵循广度优先的时候是一层一层爬行的,先爬完栏目页才会去抓取内容页。对于新站,搜索引擎往往遵循广度优先的策略,所以说往往首页,栏目页先被收录。

5.蜘蛛在抓取网页的时候遵循一些原则,和我们比较贴近的就是ROBOT原则,在ROBOT中可以禁止搜素引擎抓取你不想被抓取的页面,这对于新站来说是很有益处的,由于新站往往频频改版,加之内容不多,所以前期禁止收录是很有必要的,等网站真正稳定后再放给搜素引擎收录。

拿一把钝斧子和一把锋利的斧子都能砍到柴,虽然锋利的斧子要花时间去打磨,但在以后的工作中的效率就要快的多,从事SEO工作一样,懂得搜索引擎的原理在网站优化的时候可以说是事倍功半,上面的几点只是一些浅显的知识,要真正掌握搜索引擎收集网页原理的精髓还需要大量的数据和长时间的分析。谷歌优化

搜索引擎的网页收集原理/seo/2545.html


 
 
 
您可能也喜欢:
  • 简单分析网站的建设步骤
  • seo之网页设计
  • 外贸SEO:外贸网站建设哪些方面需要优化
分享到:

上一篇:上海SEO:如何防止误入外链陷阱

下一篇:上海网站优化:网站转化率要考虑的三个