Python自学Day62 数据采集和解析

数据采集和解析

通过上一个章节的讲解,我们已经了解到了开发一个爬虫需要做的工作以及一些常见的问题,下面我们给出一个爬虫开发相关技术的清单以及这些技术涉及到的标准库和第三方库,稍后我们会一一介绍这些内容。

  1. 下载数据 – urllib / requests / aiohttp / httpx
  2. 解析数据 – re / lxml / beautifulsoup4 / pyquery
  3. 缓存和持久化 – mysqlclient / sqlalchemy / peewee / redis / pymongo
  4. 生成数字签名 – hashlib。
  5. 序列化和压缩 – pickle / json / zlib
  6. 调度器 – multiprocessing / threading / concurrent.futures

HTML页面

如上所示的HTML页面通常由三部分构成,分别是用来承载内容的Tag(标签)、负责渲染页面的CSS(层叠样式表)以及控制交互式行为的JavaScript。通常,我们可以在浏览器的右键菜单中通过“查看网页源代码”的方式获取网页的代码并了解页面的结构;当然,我们也可以通过浏览器提供的开发人员工具来了解更多的信息。

使用requests获取页面

在上一节课的代码中我们使用了三方库requests来获取页面,下面我们对requests库的用法做进一步说明。

  • GET请求和POST请求。

  • URL参数和请求头。

  • 复杂的POST请求(文件上传)。

  • 设置代理服务器。

说明:关于requests库的相关知识,还是强烈建议大家自行阅读它的官方文档

  • 设置请求超时。

页面解析

几种解析方式的比较

[table “40” not found /]

说明:BeautifulSoup可选的解析器包括:Python标准库中的html.parser、lxml的HTML解析器、lxml的XML解析器和html5lib。

使用正则表达式解析页面

如果你对正则表达式没有任何的概念,那么推荐先阅读《正则表达式30分钟入门教程》,然后再阅读我们之前讲解在Python中如何使用正则表达式一文。

下面的例子演示了如何用正则表达式解析“豆瓣电影Top250”中的中文电影名称。

XPath解析和lxml

XPath是在XML文档中查找信息的一种语法,它使用路径表达式来选取XML文档中的节点或者节点集。这里所说的XPath节点包括元素、属性、文本、命名空间、处理指令、注释、根节点等。

对于上面的XML文件,我们可以用如下所示的XPath语法获取文档中的节点。

[table “41” not found /]

在使用XPath语法时,还可以使用XPath中的谓词。

[table “42” not found /]

XPath还支持通配符用法,如下所示。

[table “43” not found /]

如果要选取多个节点,可以使用如下所示的方法。

[table “44” not found /]

说明:上面的例子来自于菜鸟教程网站上XPath教程,有兴趣的读者可以自行阅读原文。

当然,如果不理解或者不太熟悉XPath语法,可以在Chrome浏览器中按照如下所示的方法查看元素的XPath语法。

Python自学Day62 数据采集和解析

下面的例子演示了如何用XPath解析“豆瓣电影Top250”中的中文电影名称。

BeautifulSoup的使用

BeautifulSoup是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航、查找、修改文档的方式。

  • 遍历文档树
  • 获取标签
  • 获取标签属性
  • 获取标签内容
  • 获取子(孙)节点
  • 获取父节点/祖先节点
  • 获取兄弟节点
  • 搜索树节点
    • find / find_all
    • select_one / select

说明:更多内容可以参考BeautifulSoup的官方文档。

下面的例子演示了如何用CSS选择器解析“豆瓣电影Top250”中的中文电影名称。

例子 – 获取知乎发现上的问题链接

本文来自这个系列长期转载Python-100-Days ,本文观点不代表蓝洛水深立场,转载请联系原作者。

发表评论

登录后才能评论