Crawler:基于urllib库获取cn-proxy代理的IP地址
【摘要】 Crawler:基于urllib库获取cn-proxy代理的IP地址
目录
输出结果
实现代码
输出结果
后期更新……
实现代码
import urllib.requestimport re import os print(os.getcwd()) def open_url(url): req=urllib...
Crawler:基于urllib库获取cn-proxy代理的IP地址
目录
输出结果
后期更新……
实现代码
-
import urllib.request
-
import re
-
import os
-
-
print(os.getcwd())
-
-
def open_url(url):
-
req=urllib.request.Request(url)
-
req.add_header("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.90 Safari/537.36 2345Explorer/9.2.1.17116")
-
page=urllib.request.urlopen(req)
-
html=page.read().decode("utf-8")
-
-
return html
-
-
def get_img(html):
-
p=r'(?:(?:[0,1])?\d?\d|2[0-4]\d|25[0-5]\.){3}(?:[0,1]?\d?\d|2[0-4]\d|25[0-5]))'
-
iplist=re.findall(p,html)
-
-
for each in iplist:
-
print(each)
-
-
-
if __name__=="__mian__":
-
url="http://cn-proxy.com"
-
get_img(open_url(url))
-
-
url="http://cn-proxy.com"
-
get_img(open_url(url))
文章来源: yunyaniu.blog.csdn.net,作者:一个处女座的程序猿,版权归原作者所有,如需转载,请联系作者。
原文链接:yunyaniu.blog.csdn.net/article/details/79587311
【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)