网页爬虫其实是一件很有意思的事情,对于我之前写过的爬虫,主要都是用urllib2、BeautifulSoup实现快速简单的爬虫代码,scrapy也偶尔写过。最近因为像提升自己的爬虫水平,就顺便做个爬虫学习记录。
一、正则表达式
正则表达式是一个很强大的工具了,众多的语法规则,我在爬虫中常用的有:(图1)
常用的方法有:find_all(),search(),sub()
二、urllib和urllib2
urllib和urllib2库是学习Python爬虫最基本的库,利用该库,我们可以得到网页的内容,同时,可以结合正则对这些内容提取分析,得到真正想要的结果。
在此将urllib和urllib2结合正则爬取了糗事百科中的作者点赞数内容。
三、BeautifulSoup
BeautifulSoup是Python的一个库,最主要的功能是从网页抓取数据,官方介绍是这样的:
Beautiful Soup 提供一些简单的、python 式的函数用来处理导航、搜索、修改分析树等功能。它是一个工具箱,通过解析文档为用户提供需要抓取的数据,因为简单,所以不需要多少代码就可以写出一个完整的应用程序。
Beautiful Soup 自动将输入文档转换为 Unicode 编码,输出文档转换为 utf-8 编码。你不需要考虑编码方式,除非文档没有指定一个编码方式,这时,Beautiful Soup 就不能自动识别编码方式了。然后,你仅仅需要说明一下原始编码方式就可以了。
Beautiful Soup 已成为和 lxml、html6lib 一样出色的 python 解释器,为用户灵活地提供不同的解析策略或强劲的速度。
首先:爬取百科Python词条下相关的100个页面,爬取的页面值自己设定。
代码运行:(图2)
巩固篇,依据图书的标签得到一个书单,同样使用BeautifulSoup。
运行结果:(图3)
以上就是今天学习的一些内容,爬虫真的很有意思啊,明天继续学scrapy!