请阐述什么是网络爬虫

请阐述什么是网络爬虫,第1张

什么是爬虫技术 什么是网络爬虫

1.爬虫技术,即web crawler(也叫web spider,web robot,在FOAF社区中间,更多的时候叫web chaser),是一种按照一定的规则自动抓取万维网信息的程序或脚本。其他不常用的名称有蚂蚁、自动索引、模拟器或蠕虫。

2.根据系统结构和实现技术,网络爬虫大致可以分为以下几种类型:GeneralPurposeWebCrawler、FocusedWebCrawler、IncrementalWebCrawler和DeepWebCrawler。实际的网络爬虫系统通常是由几种爬虫技术结合起来实现的。

欢迎分享,转载请注明来源:聚客百科

原文地址: https://juke.outofmemory.cn/life/825462.html

()
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-07-21
下一篇 2022-07-21

发表评论

登录后才能评论

评论列表(0条)

保存