启达软件-基于互联网,致力于企业信息化、ERP、CRM、互联网+的软件开发
启达软件
启达软件电话
技术文章你现的位置:首页>文章列表>技术文章
关于网络爬虫技术
        或者从事软件开发的人员都知道搜索引擎这个东西,国内的知名搜索引擎大概也就只有百度了,俗话说“有事找度娘”,这句话就是说百度的强大之处,你可以通过搜索来获取自己想要的任何东西,因为互联网的存在就是诠释了‘我为人人,人人为我’的这个意义!
        当然了,想要获取自己搜索的东西就要有人来提供,那么别人提供之后,怎么才能展现在我们面前呢,这就需要搜索引擎的爬虫技术了------百度蜘蛛。
        网络爬虫(又被称为网页蜘蛛,网络机器人,在FOAF社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。
        随着网络的迅速发展,万维网成为大量信息的载体,如何有效地提取并利用这些信息成为一个巨大的挑战。搜索引擎(Search    Engine),例如传统的通用搜索引擎AltaVista,Yahoo!和Google等,作为一个辅助人们检索信息的工具成为用户访问万维网的入口和指南。但是,这些通用性搜索引擎也存在着一定的局限性。为了解决上述问题,定向抓取相关网页资源的聚焦爬虫应运而生。聚焦爬虫是一个自动下载网页的程序,它根据既定的抓取目标,有选择的访问万维网上的网页与相关的链接,获取所需要的信息。与通用爬虫(general    purpose    web    crawler)不同,聚焦爬虫并不追求大的覆盖,而将目标定为抓取与某一特定主题内容相关的网页,为面向主题的用户查询准备数据资源。
        1    聚焦爬虫工作原理以及关键技术概述
        网络爬虫是一个自动提取网页的程序,它为搜索引擎从万维网上下载网页,是搜索引擎的重要组成。传统爬虫从一个或若干初始网页的URL开始,获得初始网页上的URL,在抓取网页的过程中,不断从当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。聚焦爬虫的工作流程较为复杂,需要根据一定的网页分析算法过滤与主题无关的链接,保留有用的链接并将其放入等待抓取的URL队列。然后,它将根据一定的搜索策略从队列中选择下一步要抓取的网页URL,并重复上述过程,直到达到系统的某一条件时停止。另外,所有被爬虫抓取的网页将会被系统存贮,进行一定的分析、过滤,并建立索引,以便之后的查询和检索;对于聚焦爬虫来说,这一过程所得到的分析结果还可能对以后的抓取过程给出反馈和指导。
        面临的问题
        截止到    2007    年底,Internet    上网页数量超出    160    亿个,研究表明接近    30%的页面是重复的;动态页面的存在:客户端、服务器端脚本语言的应用使得指向相同    Web    信息的    URL    数量呈指数级增长。    上述特征使得网络爬虫面临一定的困难,主要体现在    Web    信息的巨大容量使得爬虫在给定时间内只能下载少量网页。    Lawrence    和    Giles    的研究表明没有哪个搜索引擎能够索引超出    16%的Internet    上    Web    页面,即使能够提取全部页面,也没有足够的空间来存储[1]        。
        为提高爬行效率,爬虫需要在单位时间内尽可能多的获取高质量页面,是它面临的难题之一。    当前有五种表示页面质量高低的方式[1]:Similarity(页面与爬行主题之间的相似度)、Backlink(页面在    Web    图中的入度大小)、PageRank(指向它的所有页面平均权值之和)、Forwardlink(页面在    Web    图中的出度大小)、Location(页面的信息位置);Parallel(并行性问题)[3]。    为了提高爬行速度,网络通常会采取并行爬行的工作方式,随之引入了新的问题:重复性(并行运行的爬虫或爬行线程同时运行时增加了重复页面)、质量问题(并行运行时,每个爬虫或爬行线程只能获取部分页面,导致页面质量下降)、通信带宽代价(并行运行时,各个爬虫或爬行线程之间不可避免要进行一些通信)。    并行运行时,网络爬虫通常采用三种方式:独立方式(各个爬虫独立爬行页面,互不通信)、动态分配方式(由一个中央协调器动态协调分配    URL    给各个爬虫)、静态分配方式(URL    事先划分给各个爬虫)。
        抓取目标分类
        抓取目标的描述和定义是决定网页分析算法与URL搜索策略如何制订的基础。而网页分析算法和候选URL排序算法是决定搜索引擎所提供的服务形式和爬虫网页抓取行为的关键所在。这两个部分的算法又是紧密相关的。
        现有聚焦爬虫对抓取目标的描述可分为基于目标网页特征、基于目标数据模式和基于领域概念3种。
        基于目标网页特征
        基于目标网页特征的爬虫所抓取、存储并索引的对象一般为网站或网页。根据种子样本获取方式可分为:
        (1)    预先给定的初始抓取种子样本;
        (2)    预先给定的网页分类目录和与分类目录对应的种子样本,如Yahoo!分类结构等;
        (3)    通过用户行为确定的抓取目标样例,分为:
        (a)    用户浏览过程中显示标注的抓取样本;
        (b)    通过用户日志挖掘得到访问模式及相关样本。
        其中,网页特征可以是网页的内容特征,也可以是网页的链接结构特征,等等。
        基于目标数据模式
        基于目标数据模式的爬虫针对的是网页上的数据,所抓取的数据一般要符合一定的模式,或者可以转化或映射为目标数据模式。
        基于领域概念
        另一种描述方式是建立目标领域的本体或词典,用于从语义角度分析不同特征在某一主题中的重要程度。
        网页搜索策略
        网页的抓取策略可以分为深度优先、广度优先和最佳优先三种。深度优先在很多情况下会导致爬虫的陷入(trapped)问题,目前常见的是广度优先和最佳优先方法。
        广度优先搜索
        广度优先搜索策略是指在抓取过程中,在完成当前层次的搜索后,才进行下一层次的搜索。该算法的设计和实现相对简单。在目前为覆盖尽可能多的网页,一般使用广度优先搜索方法。也有很多研究将广度优先搜索策略应用于聚焦爬虫中。其基本思想是认为与初始URL在一定链接距离内的网页具有主题相关性的概率很大。另外一种方法是将广度优先搜索与网页过滤技术结合使用,先用广度优先策略抓取网页,再将其中无关的网页过滤掉。这些方法的缺点在于,随着抓取网页的增多,大量的无关网页将被下载并过滤,算法的效率将变低。
        最佳优先搜索
        最佳优先搜索策略按照一定的网页分析算法,预测候选URL与目标网页的相似度,或与主题的相关性,并选取评价最好的一个或几个URL进行抓取。它只访问经过网页分析算法预测为“有用”的网页。存在的一个问题是,在爬虫抓取路径上的很多相关网页可能被忽略,因为最佳优先策略是一种局部最优搜索算法。因此需要将最佳优先结合具体的应用进行改进,以跳出局部最优点。将在第4节中结合网页分析算法作具体的讨论。研究表明,这样的闭环调整可以将无关网页数量降低30%~90%。
        深度优先搜索
        深度优先搜索策略从起始网页开始,选择一个URL进入,分析这个网页中的URL,选择一个再进入。如此一个链接一个链接地抓取下去,直到处理完一条路线之后再处理下一条路线。深度优先策略设计较为简单。然而门户网站提供的链接往往最具价值,PageRank也很高,但每深入一层,网页价值和PageRank都会相应地有所下降。这暗示了重要网页通常距离种子较近,而过度深入抓取到的网页却价值很低。同时,这种策略抓取深度直接影响着抓取命中率以及抓取效率,对抓取深度是该种策略的关键。相对于其他两种策略而言。此种策略很少被使用。
 
开发框架.pdf  生产行业案例.pdf

版权所有:合肥启达信息技术有限公司 备案号:皖ICP备12015909号-6 Copyright 2001-2012 All rights reserved

皖公网安备 34010402701105号