使用BeautifulSoup库解析htm、xml文档
【摘要】 BeautifulSoup 安装:
~/Desktop$ sudo pip install beautifulsoup4
1
测试:
from bs4 import BeautifulSoup
if __name__ == "__main__": # 第一个参数是html文档文本,第二个参数是指定的解析器 soup = BeautifulSoup('<p>dat...
BeautifulSoup
安装:
~/Desktop$ sudo pip install beautifulsoup4
- 1
测试:
from bs4 import BeautifulSoup
if __name__ == "__main__": # 第一个参数是html文档文本,第二个参数是指定的解析器 soup = BeautifulSoup('<p>data</p>', 'html.parser') print(soup.prettify())
- 1
- 2
- 3
- 4
- 5
- 6
输出:
<p>
data
</p>
- 1
- 2
- 3
说明安装成功了。
Beautiful Soup库也叫bs4,Beautiful Soup库是解析 、遍历、维护 “标签树”的功能库。
Beautiful Soup库解析器:
解析器 | 使用方法 | 条件 |
---|---|---|
bs4的HTML解析器 | BeatifulSoup(mk,‘html.parser’) | pip install bs4 |
lxml的HTML解析器 | BeatifulSoup(mk,‘lxml’) | pip install lxml |
lxml的XML解析器 | BeatifulSoup(mk,‘xml’) | pip install lxml |
html5lib的解析器 | BeatifulSoup(mk,‘html5lib’) | pip install html5lib |
Beatiful Soup类的基本元素
基本元素 | 说明 |
---|---|
Tag | 标签,最基本的信息组织元素,分别用<>和</>标明开头和结尾。 |
Name | 标签的名字,<p>…</p>的名字是‘p’,格式:<tag>.name |
Attributes | 标签的属性,字典形式组织,格式:<tag>.attrs |
NavigableString | 标签内非属性字符串,<>…</p> 中的字符串,格式:<tag>.string |
Comment | 标签内字符串的注释部分,一种特殊的Comment类型 |
示例:
import requests
from bs4 import BeautifulSoup
def handle_url(url): try: r = requests.get("http://www.baidu.com") r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') # a标签有很多个,但soup.a返回第一个 print(soup.a) # <class 'bs4.element.Tag'> print(type(soup.a)) # 标签名a print(soup.a.name) # <class 'str'> print(type(soup.a.name)) # 标签内的属性的字典,键值对 print(soup.a.attrs) # <class 'dict'> print(type(soup.a.attrs)) # 获取a标签的href属性值 print(soup.a.attrs['href']) # <class 'str'> print(type(soup.a.attrs['href'])) # 标签的内容 print(soup.a.string) # a标签的父元素 print(soup.a.parent) except: print("fail fail fail")
if __name__ == "__main__": url = "http://www.baidu.com" handle_url(url)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
- 39
- 40
Beatiful Soup遍历HTML元素
Html具有树型结构,因此遍历有三种:
下行遍历:
属性 | 说明 |
---|---|
.contents | 子节点的列表,将<tag> 所有儿子节点存入列表 |
.children | 子节点的迭代类型,用于循环遍历儿子节点 |
.descendants | 子孙节点的迭代类型,包含所有子孙节点 ,用于循环遍历 |
import requests
from bs4 import BeautifulSoup
def handle_url(url): try: r = requests.get("http://www.baidu.com") r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') print(soup.head) # head标签的儿子节点 print(soup.head.contents) # 是list列表类型 print(type(soup.head.contents)) # head有5个儿子节点 print(len(soup.head.contents)) # 取出head的第5个儿子节点 print(soup.head.contents[4]) # 使用children遍历儿子节点 for child in soup.head.children: print(child) # 使用descendants遍历子孙节点 for child in soup.head.descendants: print(child) except: print("fail fail fail")
if __name__ == "__main__": url = "http://www.baidu.com" handle_url(url)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
上行遍历:
属性 | 说明 |
---|---|
.parent | 节点的父亲标签 |
.parents | 节点先辈的迭代类型,用于循环遍历先辈节点 |
import requests
from bs4 import BeautifulSoup
def handle_url(url): try: r = requests.get("http://www.baidu.com") r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') # html标签的父节点是它自己 print(soup.html.parent) # soup本身也是一种特殊的标签节点,它的父节点是None空 print(soup.parent) # title标签的父节点 print(soup.title.parent) # 遍历title标签的先辈节点 for parent in soup.title.parents: if parent is None: print(parent) else: print(parent.name) except: print("fail fail fail")
if __name__ == "__main__": url = "http://www.baidu.com" handle_url(url)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
平行遍历::必须发生在同一个父节点下
属性 | 说明 |
---|---|
.next_sibling | 返回按照 HTML文本顺序的下一个平等节点标签 |
.previous_sibling | 返回按照 HTML文本顺序的上一个平等节点标签 |
.next_siblings | 迭代类型,返回按照HTML文本顺序的后续所有平等节点标签 |
.previous_siblings | 迭代类型,返回按照HTML文本顺序的前续所有平等节点标签 |
import requests
from bs4 import BeautifulSoup
def handle_url(url): try: r = requests.get("http://www.baidu.com") r.raise_for_status() if r.encoding == 'ISO-8859-1': r.encoding = r.apparent_encoding demo = r.text soup = BeautifulSoup(demo, 'html.parser') # title的前一个平行节点 print(soup.title.previous_sibling) # link的下一个平行节点 print(soup.link.next_sibling) # 遍历meta标签的所有的后续平行节点 for sibling in soup.meta.next_siblings: print(sibling) # 遍历title标签的所有前续的平行节点 for sibling in soup.title.previous_siblings: print(sibling) except: print("fail fail fail")
if __name__ == "__main__": url = "http://www.baidu.com" handle_url(url)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
文章来源: blog.csdn.net,作者:WongKyunban,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/weixin_40763897/article/details/96497520
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)