Python3,为了给开发省时间,直接爬取个省市区的行政代码编号

举报
Carl_奕然 发表于 2023/03/13 11:37:53 2023/03/13
【摘要】 网友:爬虫写得好,老板请你吃大餐,爬虫写的不好,寒窗铁门度余生。

1、引言

今天的工作内容,需要获取某省级所有的行政区域编码,由于数据量太多,又懒得逐条整理,索性花费一点时间,写了一个爬虫。

由于又懒得定位某省的,索性全国的编码都获取下来,至于剩下的查看某省份的信息,那就交给其他同事好了。

再懒,也得说一下代码的结构,这是乌龟的屁股(规定),O(∩_∩)O~

一、爬取的内容以csv文件存储,

二、爬取的层数:

  •   1层:爬取省份的信息
  •   2层:爬取市的信息
  •   3层:爬取区的信息

 

2、代码实战

代码示例

# -*- coding:utf-8 -*-
# @Time   : 2020-10-31
# @Author : Carl_DJ 


import requests
from lxml  import etree
import csv,time
import  pandas as pd
from queue import Queue
from threading import Thread
 
#获取网页数据
 
def getUrl(url,num_retries = 5):
    headers = {
        'User-Agent': "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.87 Safari/537.36"}
    try:
        response = requests.get(url, headers=headers)
        response.encoding = 'GBK'
        data = response.text
        return data
    except Ellipsis as e:
        if num_retries > 0:
            time.sleep(5)
            print(url)
            print("request fail,retry!")
            return getUrl(url,num_retries-1) #递归调用
 
        else:
            print("retry fail!")
            print("errors:%s" %e + "" +url)
 
 
#获取省级代码函数
def getProvice(url):
    provice = []
    data = getUrl(url)
    selector = etree.HTML(data)
    proviceList = selector.xpath('//tr[@class="provincetr"]')
    for i  in proviceList:
        proviceName  = i.xpath('td/a/text()')
        proviceLink = i.xpath('td/a/@href')
        for j in range(len(proviceLink)):
            ##根据获取到的每个省的链接进行补全,得到真实的UR
            proviceURL = url[:-10] + proviceLink[j]
            provice.append({'name':proviceName[j],'link':proviceURL})
    return provice
 
#获取市级代码函数
def getCity(url_list):
    city_all = []
    for url in url_list:
        data = getUrl(url)
        selector = etree.HTML(data)
        cityList = selector.xpath('//tr[@class="citytr"]')
 
        #获取每个城市的代码,url
        city =[]
        for i  in cityList:
            cityCode = i.xpath('td[1]/a/text()')
            cityLink = i.xpath('td[1]/a/@href')
            cityName = i.xpath('td[2]/a/text()')
 
            for j in range(len(cityLink)):
                ##根据获取到的每市省的链接进行补全,得到真实的UR
                cityURL = url[:-7] +cityLink[j]
                city.append({'name':cityName[j],'code':cityCode[j],'link':cityURL})
        #所有省份的城市信息合并到一起
        city_all.extend(city)
    return city_all
 
 
#获取区级代码函数 --- 多线程
def getCounty(url_list):
    queue_county =Queue()  #列队
    thread_num = 10  #进程数
    county = []   #记录区级信息字典(全局)
 
    def produce_url(url_list):
        for url in url_list:
            queue_county.put(url)  #生成列队,等待提取
 
    def getData():
        while not queue_county.empty():  #可以遍历到所有,并能正常退出
            url =queue_county.get()
            data = getUrl(url=url)
            selector = etree.HTML(data)
            countyList = selector.xpath('//tr[@class="countytr"]')
 
            #爬取每个区域的代码,url
            for i in countyList:
                countryCode = i.xpath('td[1]/a/text()')
                countyLink = i.xpath('td[1]/a/@href')
                countyName = i.xpath('td[2]/a/text()')
 
                # 存储格式为字典
                for j in range(len(countyLink)):
                    countyURL = url[:-9] + countyLink[j]
                    county.append({'code': countryCode[j], 'link':countyURL, 'name': countyName[j]})
 
 
    def run (url_list):
        produce_url(url_list)
 
        ths = []
        for _ in range(thread_num):
            th = Thread(target=getData)
            th.start()
            ths.append(th)
        for  th in ths:
            th.join()
 
    run(url_list)
    return county
 
 
  #省级信息获取
# url = "http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2019/index.html"
# pro = getProvice(url)
pro = getProvice("http://www.stats.gov.cn/tjsj/tjbz/tjyqhdmhcxhfdm/2019/index.html")
df_province = pd.DataFrame(pro)
df_province.info()
  #写入csv
df_province.to_csv('province.csv',sep=',',header=True,index=False)
 
  #市级信息获取
city = getCity(df_province['link'])
df_city=pd.DataFrame(city)
df_city.info()
  #写入csv
df_city.to_csv('city.csv',sep=',',header=True,index=False)
 
 
  #区级信息获取
county = getCounty(df_city['link'])
df_county=pd.DataFrame(county)
df_county.info()
  #写入csv
df_county.to_csv('county.csv',sep=',',header=True,index=False)
 
 

3、总结

看到这里,是不是觉得爬虫,也不难嘛。

确实不难,而且,还非常刑。

小鱼在这里也友情提醒: 

  • 爬虫尽量正规使用,否则,寒窗铁门10余载, 不是不可能。 

oqingjia.gif

我是​小鱼​:

  • CSDN 博客专家;
  • 阿里云 专家博主;
  • 51CTO 博客专家;
  • 51认证讲师;
  • 金牌面试官&面试培训师;

关注我,带你学习更多更有趣的Python知识。

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。