BeautifulSoup 使用经验总结
BeautifulSoup 使用经验总结
概述
处理数据,总要面对 HTML 和 XML 文档。BeautifulSoup 是一个可以从 HTML 或 XML 中提取数据的 Python 库,功能强大、使用便捷,诚为朴实有华、人见人爱的数据处理工具。
安装
自从有了 pip 这个神器,安装就不再是问题了。BeautifulSoup 支持 Python 标准库中的 HTML 解析器,也支持其他解析器。我建议使用更牛叉的第三方解析器 lxml——我曾经用它处理过单个文件几百兆字节的xml数据,反应神速,毫无迟滞感。当然,使用系统已有的解析器,除了速度和效率,基本也不会有啥问题。
$ pip install beautifulsoup4
$ pip install lxml
- 1
- 2
开始使用
>>> from bs4 import BeautifulSoup
>>> soup = BeautifulSoup("<html>data</html>", "html.parser") # 使用python内置标准库,速度适中,容错性好
>>> soup = BeautifulSoup("<html>data</html>", "html5lib") # 以浏览器的方式解析文档,容错性最好
>>> soup = BeautifulSoup("<html>data</html>", ["lxml-xml"]) # lxml XML 解析器,速度快
>>> soup = BeautifulSoup("<html>data</html>", "lxml") # lxml HTML 解析器,速度快,容错性好
- 1
- 2
- 3
- 4
- 5
如果没有指定解析器,BeautifulSoup 会自动查找使用系统可用的解析器。
经验总结
所有的例子,均以下面的html为例。
html_doc = """
<html>
<div id="My gift"> <p class="intro short-text" align="left">One</p> <p class="intro short-text" align="center">Two</p> <p class="intro short-text" align="right">Three</p>
</div>
<img class="photo" src="demo.jpg">
<div class="photo"> <a href="sdysit.com"><img src="logo.png"></a> <p class="subject">山东远思信息科技有限公司</p>
</div>
</html>
"""
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 文本也是节点,我们称之为文本型节点,比如p标签中的One,Two,Three
- 某个节点的子节点往往比我们看到的多,因为在那些可见的子节点之外的换行、空格、制表位等,也都是某节点的文本型子节点
节点对象、名称、属性
使用lxml解析器生成一个 BeautifulSoup 对象 soup,然后可以使用标签名得到节点对象:
>>> soup = BeautifulSoup(html_doc, 'lxml')
>>> tag = soup.html
>>> tag.name
'html'
>>> tag.p.name
'p'
- 1
- 2
- 3
- 4
- 5
- 6
事实上,我们可以不用在意标签的父级是谁,直接从soup得到节点对象:
>>> soup.p.name
'p'
>>> soup.img['src']
'demo.jpg'
>>> soup.img.attrs
{'class': ['photo'], 'src': 'demo.jpg'}
>>> soup.p['class']
['intro', 'short-text']
>>> soup.div['id']
'My gift'
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
很显然,这样的方式得到的节点,一定是html中第一个同类型的标签。上面的例子还演示了如何取得节点对象的所有的属性和指定属性。当class属性有多个值时,返回的是一个列表,而id属性不承认多值。
节点的文本内容
取得一个节点的文本内容,有很多种方法,比如:
>>> soup.p.text
'One'
>>> soup.p.getText()
'One'
>>> soup.p.get_text()
'One'
>>> soup.p.string
'One'
>>> type(soup.p.string)
<class 'bs4.element.NavigableString'>
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
当一个节点只有文本型子节点的时候,前三种方法的效果是完全一致的,第四种方法看上去差不多,但返回的类型是NavigableString(可遍历的字符串)。
当节点包括元素型子节点的时候,输出的结果可能已经不是我们需要的了。此时,可以使用 .strings 或者 .stripped_strings(去掉空行和多余的空格) 得到一个迭代器,遍历即可得到我们想要的内容。
>>> soup.div.text
'\nOne\nTwo\nThree\n'
>>> soup.html.text
'\n\nOne\nTwo\nThree\n\n\n\n\n山东远思信息科技有限公司\n\n'
>>> for item in soup.div.stripped_strings:
print(item)
One
Two
Three
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
子节点
.contents, .children,.descendants 都可以取得节点的子节点,但用法各不相同:
- .contents, .children 只能取得直接子节点,.descendants 则可以递归取得所有子节点
- .contents 返回的子节点的列表,.children,.descendants 返回的是迭代器
父节点
.parent 属性来获取某个元素的父节点:
>>> soup.p.parent.name
'div'
- 1
- 2
.parents 属性可以递归得到元素的所有父辈节点:
>>> for parent in soup.p.parents:
print(parent.name)
div
body
html
[document]
- 1
- 2
- 3
- 4
- 5
- 6
- 7
兄弟节点
可以使用 .next_sibling 和 .previous_sibling 属性来查询前一个或后一个兄弟节点,但必须注意,除了可见的兄弟节点,还可能存在换行、空格、制表位等文本型的兄弟节点混杂其中。
可以使用 .next_siblings 和 .previous_siblings 属性取得当前节点的前面或后面的兄弟节点的迭代输出。
搜索节点
一般使用 find() 和 find_all() 搜索符合条件的第一个节点和全部节点的列表。
>>> soup.find('p')
<p align="left" class="intro short-text">One</p>
>>> soup.find_all('img')
[<img class="photo" src="demo.jpg"/>, <img src="logo.png"/>]
- 1
- 2
- 3
- 4
使用正则表达式匹配标签名
搜索以d开头的标签:
>>> import re
>>> for tag in soup.find_all(re.compile("^d")):
print(tag.name)
div
div
- 1
- 2
- 3
- 4
- 5
- 6
使用属性搜索
>>> soup.find_all(id='My gift')[0].name # 查找id=My gift的节点
'div'
>>> soup.find_all(id=True)[0].name # 查找有id属性的节点
'div'
>>> soup.find_all(attrs={"id":"My gift"})[0].name # 使用attrs查找
'div'
>>> soup.find_all(attrs={"class":"intro short-text","align":"right"})[0].text # 使用attrs查找
'Three'
>>> soup.find_all(attrs={"align":"right"})[0].text # 使用attrs查找
'Three'
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
使用CSS搜索
>>> soup.find_all("p", class_="intro")
[<p align="left" class="intro short-text">One</p>, <p align="center" class="intro short-text">Two</p>, <p align="right" class="intro short-text">Three</p>]
>>> soup.find_all("p", class_="intro short-text")
[<p align="left" class="intro short-text">One</p>, <p align="center" class="intro short-text">Two</p>, <p align="right" class="intro short-text">Three</p>]
>>>
- 1
- 2
- 3
- 4
- 5
使用文本内容搜索
>>> soup.find_all(string="Two")
['Two']
>>> soup.find_all(string=re.compile("Th"))
['Three']
- 1
- 2
- 3
- 4
使用函数筛选
>>> def justdoit(tag):
return tag.parent.has_attr('id') and tag['align']=='center'
>>> soup.find_all(justdoit)
[<p align="center" class="intro short-text">Two</p>]
- 1
- 2
- 3
- 4
- 5
文章来源: xufive.blog.csdn.net,作者:天元浪子,版权归原作者所有,如需转载,请联系作者。
原文链接:xufive.blog.csdn.net/article/details/82907491
- 点赞
- 收藏
- 关注作者
评论(0)