三十五、Scrapy 中的杂知识总结和代理池的编写
【摘要】 @Author:Runsen
上次 用scrapy爬了腾讯招聘网站,有两个job.json 和detail.json,针对一个item,其实有更简单的处理方法。
今天讲讲scrapy 中的杂知识,做一个系统的总结
文章目录
保存信息
日记的使用
Scrapy shell
UserAgentMiddleware
保存信息...
@Author:Runsen
上次 用scrapy
爬了腾讯招聘网站,有两个job.json
和detail.json
,针对一个item,其实有更简单的处理方法。
今天讲讲scrapy
中的杂知识,做一个系统的总结
保存信息
crapy保存信息的最简单的方法主要有四种,-o 输出指定格式的文件,命令如下:
- 默认json
scrapy crawl name -o 、spider.json
- json lines格式,默认为Unicode编码
scrapy crawl name -o spider..jl
- csv 逗号表达式,可用Excel打开
scrapy crawl name -o spider..csv
- xml格式
scrapy crawl name -o spider..xml
但是保存的编码不对,必须在settings中加入
FEED_EXPORT_EN
文章来源: maoli.blog.csdn.net,作者:刘润森!,版权归原作者所有,如需转载,请联系作者。
原文链接:maoli.blog.csdn.net/article/details/89007594
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)