python 爬虫bs4,BeautifulSoup解析
【摘要】 注:此资料亲身使用,真实可靠,如果运行方面有问题,可以私聊 资源代码都是近一年亲身运行过的,欢迎交流
课程2.py
源代码如下:
from bs4 import BeautifulSoup
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/s...
注:此资料亲身使用,真实可靠,如果运行方面有问题,可以私聊
资源代码都是近一年亲身运行过的,欢迎交流
课程2.py
源代码如下:
from bs4 import BeautifulSoup
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spder-men0.0.html')
print(res.status_code)
soup = BeautifulSoup(res.content,'html.parser')
#soup输出的内容于text一样,但格式不一样
#(soup)
item = soup.find('div')
#print(type(item))
#print(item)
items = soup.find_all('div')
#print(items)
res = requests.get('https://localprod.pandateacher.com/python-manuscript/crawler-html/spider-men5.0.html')
soup = BeautifulSoup(res.text,'html.parser')
items = soup.find_all('div',class_='books')
#print(items)
#print(type(items))
for item in items: #print('想找的数据都包含在这里了:\n',item)
#print(type(item)) kind = item.find('h2') title = item.find(class_='title') bref = item.find(class_='info') print(kind.text,'\n',title.text,'\n',title['href'],'\n',bref.text) print(type(kind),type(title),type(bref))
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
python基础,爬虫工程师,web开发,dango实战资源
加v:19863673853领取
《中文版MATLAB 2018从入门到精通(实战案例版)》【视频、源文件、电子书】
《中文版SOLIDWORKS 2018从入门到精通(实战案例版)》【视频、源文件、电子书】
《中文版UG NX 12.0从入门到精通(实战案例版)》【配套资源视频、源文件】
文章来源: blog.csdn.net,作者:yk 坤帝,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/qq_45803923/article/details/114405056
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)