Python爬虫:Scrapy优化参数设置

举报
彭世瑜 发表于 2021/08/13 23:23:39 2021/08/13
【摘要】 修改 settings.py 文件 # 增加并发 CONCURRENT_REQUESTS = 100 # 降低log级别 LOG_LEVEL = 'INFO' # 禁止cookies COOKIES_ENABLED = False # 禁止重试 RETRY_ENABLED = False # 减小下载超时 DOWNLOAD_TIMEOUT = 15 # 禁止...

修改 settings.py 文件

# 增加并发
CONCURRENT_REQUESTS = 100

# 降低log级别
LOG_LEVEL = 'INFO'

# 禁止cookies
COOKIES_ENABLED = False

# 禁止重试
RETRY_ENABLED = False

# 减小下载超时
DOWNLOAD_TIMEOUT = 15

# 禁止重定向
REDIRECT_ENABLED = False

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

参考
通用爬虫(Broad Crawls)

文章来源: pengshiyu.blog.csdn.net,作者:彭世瑜,版权归原作者所有,如需转载,请联系作者。

原文链接:pengshiyu.blog.csdn.net/article/details/89521441

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。