,欢迎访问
搜索引擎工作原理
收录流程
1、提交url是一个被动且费时间的行为。
2、建立外链,外链的数量、质量及相关性左右着录入时间,是主动的。
页面收录方式
页面收录使用的策略,目的是从互联网筛选出相对重要的信息。
若使用相同抓取策略,在同一站中抓取页面资源更具效率,那么则会再网站上停留更长的时间,收录的页面数自然也就爱更多。
广度优先。
优点:优先抓取重要的页面。
应对策略:将重要信息设计在较浅层次的页面上。
深度优先。
优点:页面需求的长尾,抓取更多冷门、隐藏的页面,满足更多用户的需求。
应对策略:重要信息放置在多层次的页面上。
用户提交。
优点:大大提高页面收录效率、数量和收录页面的质量。
如何避免重复收录(页面重复、内容重复)
网站中的重复信息:转载内容、镜像内容。
重复信息的影响:占用硬盘、延长用户搜素时间
权重:原创>转载>镜像(几乎完全被忽略)
转载页面
比较多个被划分为N个区域页面的M个区域。若M>A(某阀值),则互为转载。
通过比较最后修改时间、页面权重等因素判断哪个是原创。
镜像页面
比较多个被划分为N个区域的页面,若N个区域内容完全一样,则认为这些页面互为镜像页面。
判断原创如转载一样。
镜像网站
狭义的镜像网站是指内容完全相同的网站。
形成原因:1、多个域名或IP指向同一服务器的同一个物理目录;
2、整个网站内容被复制到使用不同域名或IP的服务器上。
识别源网站是通过判断这些网站的首页以及首页直接链接的页面是否互为镜像页面。再综合多项因素(如网站权重值、建立时间等)识别。
镜像网站只收录极少页面,甚至不收录页面。
页面维护方式
为让搜索引擎适应网站的不断变化和缺录。
定期抓取
周期性针对全部已收录页面进行维护。
页面权重的再分配也是与页面维护同步进行。
适用于页面较少,内容更新慢的网站。
缺点:由于维护周期长,是的不能及时向用户反映更新期间页面的变化情况。
增量抓取
对已抓取的页面进行定时监控,实现对页面的更新及维护。(不现实)
基于80/20法则,搜索引擎只针对某些重要页面网站中部分重要页面进行定时监控,即可获取网站中相对重要的信息。
优点:对重要页面的内容更新会及时发现新内容、新链接、并删除不存在的信息。
分类定位抓取
根据页面的类别或性质而制定相应更新周期的页面监控方式。
新闻资讯周期小于资源下载的周期。
大型门户网站内容更新速度比小型快。
优点:大大提高页面抓取的灵活性和实时性。
补充:各种抓取方式组合抓取页面。
页面存储
搜索引擎能否在抓取页面的过程中获取到更多有价值的信息会直接影响搜索引擎的工作效率及排序结果的质量。所以搜索引擎除了存储原始页面外,还会附加一系列的信息(如文件类型、文件大小、最后修改时间、rul、ip地址、抓取时间等),再把这些作为开展某项工作的依据。
网页分析
对原始页面进行一系列的分析、处理,以迎合
seo教搜索引擎优化入门与进阶笔记 来自淘豆网www.taodocs.com转载请标明出处.