python经典爬虫之获取酷狗音乐TOP500信息

举报
大数据梦想家 发表于 2021/09/27 23:14:21 2021/09/27
【摘要】         前几天小菌分享的博客《用python爬虫制作图片下载器(超有趣!)》收到了粉丝们较多的关注,小菌决定再分享一...

        前几天小菌分享的博客《用python爬虫制作图片下载器(超有趣!)》收到了粉丝们较多的关注,小菌决定再分享一些简单的爬虫项目给爬虫刚入门的小伙伴们,希望大家能在钻研的过程中,感受爬虫的魅力~
      

"""
@File    : 酷狗Top500.py
@Time    : 2019/10/21 22:31
@Author  : 封茗囧菌
@Software: PyCharm

      转载请注明原作者
	  创作不易,仅供分享 
    
"""

# 先导入相关的第三方库
import requests
from bs4 import BeautifulSoup
import time


# 定义一个请求头,伪装成浏览器,提高爬取数据的几率
headers={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'
}

def get_info(url):
    #  请求网页获取网页信息
    web_data=requests.get(url,headers=headers)
    #  利用BeautifulSoup库解析网页数据,得到soup对象
    soup=BeautifulSoup(web_data.text,'html.parser')
    # 分别利用soup对象的select方法获取到需要的数据
    ranks=soup.select("span.pc_temp_num")
    titles=soup.select("#rankWrap > div.pc_temp_songlist > ul > li > a")
    times=soup.select("#rankWrap > div.pc_temp_songlist > ul > li > span.pc_temp_tips_r > span")
    for rank,title,time in zip(ranks,titles,times):
         # 定义一个字典
        data={
            'rank':rank.get_text().strip(),
            'singer':title.get_text().split('-')[0],
            'song':title.get_text().split('-')[1],
            'time':time.get_text().strip()
        }

        #  获取爬虫信息并按字典格式打印
        print(data)

# 程序主入口
if __name__ == '__main__':
    # 观察网页组成结构,构造出多页URL
    urls=['https://www.kugou.com/yy/rank/home/{}-8888.html?from=rank'.format(i)
          for i in range(1,24)]

    for url in urls:
        print("开始爬取的URL:"+url)
        # 调用方法,获取到每页的具体信息
        get_info(url)
        # 设置休眠时间
        time.sleep(1)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55

效果图:
在这里插入图片描述
在这里插入图片描述
        这次分享的爬虫项目非常适合爬虫初学者训练,希望大家能多多练习,本次的分享就到这里,喜欢的小伙伴们记得点赞加关注哦╰( ̄▽ ̄)╭

文章来源: alice.blog.csdn.net,作者:大数据梦想家,版权归原作者所有,如需转载,请联系作者。

原文链接:alice.blog.csdn.net/article/details/102844076

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。