Crawler:基于urllib库获取cn-proxy代理的IP地址

举报
一个处女座的程序猿 发表于 2021/03/28 02:08:43 2021/03/28
【摘要】 Crawler:基于urllib库获取cn-proxy代理的IP地址         目录 输出结果 实现代码         输出结果 后期更新……   实现代码 import urllib.requestimport re import os print(os.getcwd()) def open_url(url): req=urllib...

Crawler:基于urllib库获取cn-proxy代理的IP地址

 

 

 

 

目录

输出结果

实现代码


 

 

 

 

输出结果

后期更新……

 

实现代码


  
  1. import urllib.request
  2. import re
  3. import os
  4. print(os.getcwd())
  5. def open_url(url):
  6. req=urllib.request.Request(url)
  7. req.add_header("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.90 Safari/537.36 2345Explorer/9.2.1.17116")
  8. page=urllib.request.urlopen(req)
  9. html=page.read().decode("utf-8")
  10. return html
  11. def get_img(html):
  12. p=r'(?:(?:[0,1])?\d?\d|2[0-4]\d|25[0-5]\.){3}(?:[0,1]?\d?\d|2[0-4]\d|25[0-5]))'
  13. iplist=re.findall(p,html)
  14. for each in iplist:
  15. print(each)
  16. if __name__=="__mian__":
  17. url="http://cn-proxy.com"
  18. get_img(open_url(url))
  19. url="http://cn-proxy.com"
  20. get_img(open_url(url))

 

 

 

文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。

原文链接:yunyaniu.blog.csdn.net/article/details/79587311

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。