BeautifulSoup 使用经验总结

举报
天元浪子 发表于 2021/07/27 00:38:49 2021/07/27
【摘要】 BeautifulSoup 使用经验总结 文章目录 BeautifulSoup 使用经验总结概述安装开始使用 经验总结节点对象、名称、属性节点的文本内容子节点父节点兄弟节点搜索节点使用正则表达式匹配标签名使用属性搜索使用CSS搜索使用文本内容搜索使用函数筛选 概述 处理数据,总要面对 HTML 和 XML 文档。BeautifulSoup 是...

BeautifulSoup 使用经验总结

概述

处理数据,总要面对 HTML 和 XML 文档。BeautifulSoup 是一个可以从 HTML 或 XML 中提取数据的 Python 库,功能强大、使用便捷,诚为朴实有华、人见人爱的数据处理工具。

安装

自从有了 pip 这个神器,安装就不再是问题了。BeautifulSoup 支持 Python 标准库中的 HTML 解析器,也支持其他解析器。我建议使用更牛叉的第三方解析器 lxml——我曾经用它处理过单个文件几百兆字节的xml数据,反应神速,毫无迟滞感。当然,使用系统已有的解析器,除了速度和效率,基本也不会有啥问题。

$ pip install beautifulsoup4
$ pip install lxml

  
 
  • 1
  • 2

开始使用

>>> from bs4 import BeautifulSoup
>>> soup = BeautifulSoup("<html>data</html>", "html.parser")  # 使用python内置标准库,速度适中,容错性好
>>> soup = BeautifulSoup("<html>data</html>", "html5lib") # 以浏览器的方式解析文档,容错性最好
>>> soup = BeautifulSoup("<html>data</html>", ["lxml-xml"])   # lxml XML 解析器,速度快
>>> soup = BeautifulSoup("<html>data</html>", "lxml") # lxml HTML 解析器,速度快,容错性好

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

如果没有指定解析器,BeautifulSoup 会自动查找使用系统可用的解析器。

经验总结

所有的例子,均以下面的html为例。

html_doc = """
	<html>
		<div id="My gift"> <p class="intro short-text" align="left">One</p> <p class="intro short-text" align="center">Two</p> <p class="intro short-text" align="right">Three</p>
		</div>
		<img class="photo" src="demo.jpg">
		<div class="photo"> <a href="sdysit.com"><img src="logo.png"></a> <p class="subject">山东远思信息科技有限公司</p>
		</div>
	</html>
"""

  
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 文本也是节点,我们称之为文本型节点,比如p标签中的One,Two,Three
  • 某个节点的子节点往往比我们看到的多,因为在那些可见的子节点之外的换行、空格、制表位等,也都是某节点的文本型子节点

节点对象、名称、属性

使用lxml解析器生成一个 BeautifulSoup 对象 soup,然后可以使用标签名得到节点对象:

>>> soup = BeautifulSoup(html_doc, 'lxml')
>>> tag = soup.html
>>> tag.name
'html'
>>> tag.p.name
'p'

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

事实上,我们可以不用在意标签的父级是谁,直接从soup得到节点对象:

>>> soup.p.name
'p'
>>> soup.img['src']
'demo.jpg'
>>> soup.img.attrs
{'class': ['photo'], 'src': 'demo.jpg'}
>>> soup.p['class']
['intro', 'short-text']
>>> soup.div['id']
'My gift'

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

很显然,这样的方式得到的节点,一定是html中第一个同类型的标签。上面的例子还演示了如何取得节点对象的所有的属性和指定属性。当class属性有多个值时,返回的是一个列表,而id属性不承认多值。

节点的文本内容

取得一个节点的文本内容,有很多种方法,比如:

>>> soup.p.text
'One'
>>> soup.p.getText()
'One'
>>> soup.p.get_text()
'One'
>>> soup.p.string
'One'
>>> type(soup.p.string)
<class 'bs4.element.NavigableString'>

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

当一个节点只有文本型子节点的时候,前三种方法的效果是完全一致的,第四种方法看上去差不多,但返回的类型是NavigableString(可遍历的字符串)。

当节点包括元素型子节点的时候,输出的结果可能已经不是我们需要的了。此时,可以使用 .strings 或者 .stripped_strings(去掉空行和多余的空格) 得到一个迭代器,遍历即可得到我们想要的内容。

>>> soup.div.text
'\nOne\nTwo\nThree\n'
>>> soup.html.text
'\n\nOne\nTwo\nThree\n\n\n\n\n山东远思信息科技有限公司\n\n'
>>> for item in soup.div.stripped_strings:
	print(item)
	
One
Two
Three

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

子节点

.contents, .children,.descendants 都可以取得节点的子节点,但用法各不相同:

  • .contents, .children 只能取得直接子节点,.descendants 则可以递归取得所有子节点
  • .contents 返回的子节点的列表,.children,.descendants 返回的是迭代器

父节点

.parent 属性来获取某个元素的父节点:

>>> soup.p.parent.name
'div'

  
 
  • 1
  • 2

.parents 属性可以递归得到元素的所有父辈节点:

>>> for parent in soup.p.parents:
	print(parent.name)
	
div
body
html
[document]

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

兄弟节点

可以使用 .next_sibling 和 .previous_sibling 属性来查询前一个或后一个兄弟节点,但必须注意,除了可见的兄弟节点,还可能存在换行、空格、制表位等文本型的兄弟节点混杂其中。

可以使用 .next_siblings 和 .previous_siblings 属性取得当前节点的前面或后面的兄弟节点的迭代输出。

搜索节点

一般使用 find() 和 find_all() 搜索符合条件的第一个节点和全部节点的列表。

>>> soup.find('p')
<p align="left" class="intro short-text">One</p>
>>> soup.find_all('img')
[<img class="photo" src="demo.jpg"/>, <img src="logo.png"/>]

  
 
  • 1
  • 2
  • 3
  • 4

使用正则表达式匹配标签名

搜索以d开头的标签:

>>> import re
>>> for tag in soup.find_all(re.compile("^d")):
	print(tag.name)
	
div
div

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

使用属性搜索

>>> soup.find_all(id='My gift')[0].name # 查找id=My gift的节点
'div'
>>> soup.find_all(id=True)[0].name # 查找有id属性的节点
'div'
>>> soup.find_all(attrs={"id":"My gift"})[0].name # 使用attrs查找
'div'
>>> soup.find_all(attrs={"class":"intro short-text","align":"right"})[0].text # 使用attrs查找
'Three'
>>> soup.find_all(attrs={"align":"right"})[0].text # 使用attrs查找
'Three'

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10

使用CSS搜索

>>> soup.find_all("p", class_="intro")
[<p align="left" class="intro short-text">One</p>, <p align="center" class="intro short-text">Two</p>, <p align="right" class="intro short-text">Three</p>]
>>> soup.find_all("p", class_="intro short-text")
[<p align="left" class="intro short-text">One</p>, <p align="center" class="intro short-text">Two</p>, <p align="right" class="intro short-text">Three</p>]
>>> 

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

使用文本内容搜索

>>> soup.find_all(string="Two")
['Two']
>>> soup.find_all(string=re.compile("Th"))
['Three']

  
 
  • 1
  • 2
  • 3
  • 4

使用函数筛选

>>> def justdoit(tag):
	return tag.parent.has_attr('id') and tag['align']=='center'

>>> soup.find_all(justdoit)
[<p align="center" class="intro short-text">Two</p>]

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

文章来源: xufive.blog.csdn.net,作者:天元浪子,版权归原作者所有,如需转载,请联系作者。

原文链接:xufive.blog.csdn.net/article/details/82907491

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。