Python爬虫实战(四) :下载煎蛋网所有妹子照片

举报
悦来客栈的老板 发表于 2020/12/28 22:44:24 2020/12/28
3.7k+ 0 0
【摘要】 煎蛋网是一个适合开车的网站,各种妹子福利图片。 网站:http://jandan.net/ooxx 里面有两种格式的图片:gif和jpg,写个程序将所有页面的妹子图全部下载下来。 #coding=utf-8import requestsimport urllib.requestfrom random import randintfrom bs4 import ...

煎蛋网是一个适合开车的网站,各种妹子福利图片。

网站:http://jandan.net/ooxx

里面有两种格式的图片:gif和jpg,写个程序将所有页面的妹子图全部下载下来。



      #coding=utf-8
      import requests
      import urllib.request
      from random import randint
      from bs4 import BeautifulSoup
      def getHtml(url):
          page = requests.get(url)
          html =page.text
          return html
      def getimg(html):
          soup = BeautifulSoup(html, 'html.parser')
          img_info = soup.find_all('a')
          global x
          for index,img in enumerate(img_info):
              if not img.get('href'):
                  return
              imgstr = "http:" + img.get('href')   #有更好的标签,但爬下来之后发现gif图片动不了,因此改为此标签
              if imgstr[-4] != '.':
                  continue
              print ("正在下载第{}张图片".format(x))
              urllib.request.urlretrieve(imgstr,'%s%s' % (x,imgstr[-4:]))
              x = x+1
      if __name__=='__main__':
          x = 1
          for i in range(1,72):
              url  = ("http://jandan.net/ooxx/page-%s#comments" % str(i))
              html = getHtml(url)
              getimg(html)
          print ("OK!DownLoad ALL!")
  
 

文章来源: blog.csdn.net,作者:悦来客栈的老板,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/qq523176585/article/details/77842649

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

作者其他文章

评论(0

抱歉,系统识别当前为高风险访问,暂不支持该操作

    全部回复

    上滑加载中

    设置昵称

    在此一键设置昵称,即可参与社区互动!

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

    *长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。