Python3抓取糗百、不得姐

举报
feichaiyu 发表于 2019/12/15 22:00:15 2019/12/15
【摘要】 重要提示1:本文所列程序均基于Python3.6,低于Python3.6的Python版本可能无法运行. 重要提示2:因所抓取的网站可能随时更改展示内容,因此程序也需及时跟进. 重要提示3:本程序仅供学习,不能拿去做坏事.起步1.安装Python 3.6; 2.安装以下库: 1. requests(2.12.4); 2. BeautifulSoup(4.5.1)(pip install be...

重要提示1:本文所列程序均基于Python3.6,低于Python3.6的Python版本可能无法运行. 重要提示2:因所抓取的网站可能随时更改展示内容,因此程序也需及时跟进. 重要提示3:本程序仅供学习,不能拿去做坏事.

起步

1.安装Python 3.6; 2.安装以下库: 1. requests(2.12.4); 2. BeautifulSoup(4.5.1)(pip install beautifulsoup4); 3. urllib3(1.19.1);

主要思路

整个程序,按照下面的步骤:

1.获取要爬取页面的URL地址(可以是分页地址,可以在程序里面模拟分页); 2.通过requests(一个封装了urllib3的网络库,简化了很多网络请求的东西)下载上面URL地址的内容到内存(以前的方式是保存临时文件); 3.用BeautifulSoup(一个解析HTML的库)来读取第二步中保存在内存中的内容,并解析出我们要的主要内容部分; 4.保存到数据库或展示(特别说明:本示例程序不包含数据库部分),程序最终会输出多条json数据(已经包含了来源网站(自己定义的),创建时间等)

上述部分体现在代码中,就是如下:

首先在Main.py中,定义:

1576418232666955.png

用来格式化不得姐获取到的数据,下面还要定义一个Qsyk来处理来自糗事百科的数据:

1576418253518577.png

代码中还有一个Kanqu.com的抓取处理,这里就不罗列了,这几个唯一的区别就是:调用common.formatContent时,传递的第二个参数不一样,第二个参数为要抓取的内容(HTML)的class.

CommonGrab中依赖了UserUtils.py中的代码.

下面是CommonGrab的定义,在CommonGrab中主要做了两件事: 1. 抓取网页内容,保存到内存; 2. 解析HTML内容(使用BeautifulSoup) 3. 将数据新增到数据库中.(不新增数据库到数据库中.)

代码如下:

1576418274682468.png

1576418288857140.png

之后就是把上述的几部分组合起来.

运行

运行部分的代码如下,主要就是调用了上述几部分的代码:

1576418310476569.png

1576418320923222.png

源码下载

CSDN: https://download.csdn.net/download/dcxy0/9835268 Coding.net: https://coding.net/u/pruidong/p/Python3GetQsbkBdj/git

文件:

main.py: 运行 UserUtils.py:工具

题外话

Python 3.7 将于2018-06-15发布(参考:PEP537).

到时可能会依据Python 3.7更新此程序.

异步社区是一个有料、有货,又专业的IT专业图书社区,在这里可以读到最新、最热的IT类图书!我想要社区的《Python程序设计(第3版)》这本书,Python之父推荐,人生苦短,我用Python,一定要看,请大家帮我点赞!Python程序设计(第3版)

转载声明:本文转载自异步社区

原文链接:https://www.epubit.com/articleDetails?id=Ne842d347-8e59-40f6-8121-4ed8d77b6b64

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。