python根据URL地址下载文件——wget
【摘要】 爬虫过程中经常会需要下载一些资源,通常我们会使用request进行下载
爬虫过程中经常会需要下载一些资源,通常我们会使用request进行下载,方法大致如下
import requests # 请求链接,有防爬的要加headers,代理ip地址 img = requests.get(url) # 保存文件 with open('./img1.jpg', 'wb') as file: file.write(img.content)
这种下载方法还算是挺方便,但有一个更加便捷的方法可以实现同样的目的——wget包(Linux环境下,也有wget命令可以使用)
首先,我们需要安装wget包:
pip install wget
接下来我们看一下,如何使用wget进行下载吧
import wget wget.download(url, out='./img1.jpg')
没错,就是这么两行,就完成了下载,真的是谁用谁知道,但是如果如果遇到防爬虫措施较严格的可能会失败。
wget不仅可以方便地使用,而且在下载过程中,还自带一个下载进度条,对于下载的文件,也会通过自动解析URL地址获得文件名,效果可以看下面的动图。
wget下载过程
====================================================================
本文发表在李思原博客“机器在学习”
原文链接:http://www.siyuanblog.com/?p=1587
欢迎扫码关注我的微信公众号:聚数为塔
=====================================================================
【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)