python selenium 模拟浏览器进行爬取B站评论
【摘要】
直接上代码,selenium比较无脑。 日后有空再补充 ps:记得装好驱动噢,不行的话可以留言,我私发驱动给你~
from selenium import webdriver
from time imp...
直接上代码,selenium比较无脑。
日后有空再补充
ps:记得装好驱动噢,不行的话可以留言,我私发驱动给你~
from selenium import webdriver
from time import sleep
l1=[]
print("请输入av号:")
av=input()
from selenium.common.exceptions import NoSuchElementException #防止错误
def pa(): #定义函数,进行爬取
list = driver.find_elements_by_css_selector(
'#comment > div > div.comment > div.bb-comment > div.comment-list > div > div.con > p')
for i in list:
l1.append(i.text)
url = 'https://www.bilibili.com/video/av'+av
chrome_path = "D:\Google\chromedriver.exe" #驱动的路径
driver = webdriver.Chrome(executable_path=chrome_path)
driver.get(url)
sleep(10)
driver.execute_script('window.scrollBy(0,document.body.scrollHeight)')
sleep(1.5)#页面滚动到底部
driver.execute_script('window.scrollBy(0,1000)')
sleep(1.5)
#等待网络
sleep(10)
pa()
while (1):
try:
c =driver.find_element_by_css_selector("#comment > div > div.comment > div.bb-comment > div.bottom-page.paging-box-big > a.next")
#print(c)
c.click()#模拟点击下一页,当没有下一页的时候就会进行下面一个操作
sleep(5)
pa()
sleep(0.5)
except NoSuchElementException as e:
print("没")
break
for i in l1:
print(i)
- 1
- 2
- 3
- 4
- 5
- 6
- 7
- 8
- 9
- 10
- 11
- 12
- 13
- 14
- 15
- 16
- 17
- 18
- 19
- 20
- 21
- 22
- 23
- 24
- 25
- 26
- 27
- 28
- 29
- 30
- 31
- 32
- 33
- 34
- 35
- 36
- 37
- 38
文章来源: blog.csdn.net,作者:小生凡一,版权归原作者所有,如需转载,请联系作者。
原文链接:blog.csdn.net/weixin_45304503/article/details/104815267
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)