很多站长都会以为把文章提交后,蜘蛛进来抓取,就会收录。于是每天大量更新文章, 等待收录,久而久之,网站就会出现很多垃圾文章。文章的收录都有固定的流程,并不像一 些站长认为的那样轻而易举。 

蜘蛛抓取的流程主要分为四个步骤:抓 、过滤,建立索引、输入结果。这就是从用户 搜索一个关键词,到搜索引擎匹配并展示结果的过程。这个过程是复杂而漫长的,也是遵循 一定规律的。蜘蛛作为一种程序,被形象的比喻为动物,方便用户理解。接下来就为站长详 细描述这个抓取程序的工作流程: 

搜索引擎SEO优化需要了解它的运算逻辑和工作流程

1.抓取:网站通过2个方面进行抓 。一是网站提交给百度后,蜘蛛便开始通过提交的url进行抓取并建立一个表,这些提交的网站url就存在这个表中。大多数人都认为蜘蛛是随意抓 ,看到什么抓什么。其实不然,蜘蛛是顺着锚文本和链接进行抓取的。这就要说到第二个抓取方式——外链。通过外界形式进行抓 ,也是一种很快的方式。互联网是由很多点组成的,这些点就是指向链接,蜘蛛顺着这些指向链接,并对用户的注重程度进行不同频率的抓取。 

2.过滤 :顾名思义,蜘蛛对于提交到列表的url进行过滤。过滤掉一些奇葩用户的网页,以及一 些死链接和空白页面。蜘蛛的过滤是有选择的,如果网站大量存在这些有害页面,会影响到蜘蛛的抓取,降低信任度,所以,出现这些页面一定要主动提及,做到亡羊补牢,为时未晚。 

3.建立索引:蜘蛛对于网页中的关键词信息进行识别和存储,并提前做好排名。这些存储的信息,会变成一个虚拟的数据结构,里面包括很多相关数据,比如网页的tag、title、meta、description、外链、抓取记录等。树干和树枝脉络清晰,用来详细的展现给用户搜索结果,这就是索引库。 

 4.输出结果: 用户搜索后,索引库会映射出一张匹配表,并在这张表中进行筛选。筛选的规则是用户输入关键词体现的需求和网页优劣。打分结果出现后,好的排名就会被展现在第一页,供用户选择形成点击和转化。 

以上四个步骤就是蜘蛛抓取的全过程。百度根据链接把url加入列表,派遣蜘蛛这个程序进行抓 ,符合要求的进入索引库,最后收录,并组合成结构性的数据,接下来返回的搜索结果,就是我们看到的网站排名。 

相关文章