[Python3 网络爬虫开发实战] 1.9.4-Scrapyd API 的安装
【摘要】 安装好了 Scrapyd 之后,我们可以直接请求它提供的 API 来获取当前主机的 Scrapy 任务运行状况。比如,某台主机的 IP 为 192.168.1.1,则可以直接运行如下命令获取当前主机的所有 Scrapy 项目: 1 curl http://localhost:6800/listprojects.json 运行结果如下: 1 {...
安装好了 Scrapyd 之后,我们可以直接请求它提供的 API 来获取当前主机的 Scrapy 任务运行状况。比如,某台主机的 IP 为 192.168.1.1,则可以直接运行如下命令获取当前主机的所有 Scrapy 项目:
1 |
curl http://localhost:6800/listprojects.json |
运行结果如下:
1 |
{"status": "ok", "projects": ["myproject", "otherproject"]} |
返回结果是 JSON 字符串,通过解析这个字符串,便可以得到当前主机的所有项目。
但是用这种方式来获取任务状态还是有点烦琐,所以 Scrapyd API 就为它做了一层封装,下面我们来看下它的安装方式。
1. 相关链接
- GitHub:https://pypi.python.org/pypi/python-scrapyd-api/
- PyPI:https://pypi.python.org/pypi/python-scrapyd-api
- 官方文档:http://python-scrapyd-api.readthedocs.io/en/latest/usage.html
2. pip 安装
这里推荐使用 pip 安装,命令如下:
1 |
pip install python-scrapyd-api |
3. 验证安装
安装完成之后,便可以使用 Python 来获取主机状态了,所以上面的操作便可以用 Python 代码实现:
1 |
from scrapyd_api import ScrapydAPI |
运行结果如下:
1 |
["myproject", "otherproject"] |
这样我们便可以用 Python 直接来获取各个主机上 Scrapy 任务的运行状态了。
文章来源: cuiqingcai.com,作者:崔庆才,版权归原作者所有,如需转载,请联系作者。
原文链接:cuiqingcai.com/5453.html
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)