Python自学Day62 数据采集和解析

数据采集和解析

通过上一个章节的讲解,我们已经了解到了开发一个爬虫需要做的工作以及一些常见的问题,下面我们给出一个爬虫开发相关技术的清单以及这些技术涉及到的标准库和第三方库,稍后我们会一一介绍这些内容。

  1. 下载数据 – urllib / requests / aiohttp / httpx
  2. 解析数据 – re / lxml / beautifulsoup4 / pyquery
  3. 缓存和持久化 – mysqlclient / sqlalchemy / peewee / redis / pymongo
  4. 生成数字签名 – hashlib。
  5. 序列化和压缩 – pickle / json / zlib
  6. 调度器 – multiprocessing / threading / concurrent.futures

HTML页面

如上所示的HTML页面通常由三部分构成,分别是用来承载内容的Tag(标签)、负责渲染页面的CSS(层叠样式表)以及控制交互式行为的JavaScript。通常,我们可以在浏览器的右键菜单中通过“查看网页源代码”的方式获取网页的代码并了解页面的结构;当然,我们也可以通过浏览器提供的开发人员工具来了解更多的信息。

使用requests获取页面

在上一节课的代码中我们使用了三方库requests来获取页面,下面我们对requests库的用法做进一步说明。

  • GET请求和POST请求。

  • URL参数和请求头。

  • 复杂的POST请求(文件上传)。

  • 设置代理服务器。

说明:关于requests库的相关知识,还是强烈建议大家自行阅读它的官方文档

  • 设置请求超时。

页面解析

几种解析方式的比较

参数描述
format必需。转换格式。
arg1 字符串中第一个 % 符号处的参数。
arg2 可选。规定插到 format 字符串中第二个 % 符号处的参数。
arg++可选。规定插到 format 字符串中第三、四等等 % 符号处的参数。

说明:BeautifulSoup可选的解析器包括:Python标准库中的html.parser、lxml的HTML解析器、lxml的XML解析器和html5lib。

使用正则表达式解析页面

如果你对正则表达式没有任何的概念,那么推荐先阅读《正则表达式30分钟入门教程》,然后再阅读我们之前讲解在Python中如何使用正则表达式一文。

下面的例子演示了如何用正则表达式解析“豆瓣电影Top250”中的中文电影名称。

XPath解析和lxml

XPath是在XML文档中查找信息的一种语法,它使用路径表达式来选取XML文档中的节点或者节点集。这里所说的XPath节点包括元素、属性、文本、命名空间、处理指令、注释、根节点等。

对于上面的XML文件,我们可以用如下所示的XPath语法获取文档中的节点。

方法说明
util.timeAgo(time, onlyDate)
某个时间在当前时间的多久前。
参数 time:即为某个时间的时间戳或日期对象
参数 onlyDate:是否在超过30天后,只返回日期字符,而不返回时分秒

如果在3分钟以内,返回:刚刚
如果在30天以内,返回:若干分钟前、若干小时前、若干天前,如:5分钟前
如果在30天以上,返回:日期字符,如:2017-01-01

在使用XPath语法时,还可以使用XPath中的谓词。

包管理器名称常用标志性指令代表系统举例
DPKGdpkg、aptDebain、Ubuntu等
RPMrpm、yumRedHat、CentOS等
PacmanpacmanArch、Manjaro等
DNFdnfFedora
ZypperzypperSUSE
PortageemergeGentoo

XPath还支持通配符用法,如下所示。

描述
auto默认值。如果必要则在元素前插入分页符。
always在元素前插入分页符。
avoid 避免在元素前插入分页符。
left在元素之前足够的分页符,一直到一张空白的左页为止。
right 在元素之前足够的分页符,一直到一张空白的右页为止。
inherit 规定应该从父元素继承 page-break-before 属性的设置。

如果要选取多个节点,可以使用如下所示的方法。

[table “44” not found /]

说明:上面的例子来自于菜鸟教程网站上XPath教程,有兴趣的读者可以自行阅读原文。

当然,如果不理解或者不太熟悉XPath语法,可以在Chrome浏览器中按照如下所示的方法查看元素的XPath语法。

Python自学Day62 数据采集和解析

下面的例子演示了如何用XPath解析“豆瓣电影Top250”中的中文电影名称。

BeautifulSoup的使用

BeautifulSoup是一个可以从HTML或XML文件中提取数据的Python库。它能够通过你喜欢的转换器实现惯用的文档导航、查找、修改文档的方式。

  • 遍历文档树
  • 获取标签
  • 获取标签属性
  • 获取标签内容
  • 获取子(孙)节点
  • 获取父节点/祖先节点
  • 获取兄弟节点
  • 搜索树节点
    • find / find_all
    • select_one / select

说明:更多内容可以参考BeautifulSoup的官方文档。

下面的例子演示了如何用CSS选择器解析“豆瓣电影Top250”中的中文电影名称。

例子 – 获取知乎发现上的问题链接

本文来自这个系列长期转载Python-100-Days ,本文观点不代表蓝洛水深立场,转载请联系原作者。

(0)
上一篇 2020年12月5日 下午11:03
下一篇 2021年1月10日 下午10:43

相关推荐

发表评论

登录后才能评论