【python爬虫】80页md笔记,0基础到scrapy项目高手,第(3)篇,requests网络请求模块详解

举报
程序员一诺112 发表于 2023/11/01 21:24:14 2023/11/01
【摘要】 本文主要学习一下关于爬虫的相关前置知识和一些理论性的知识,通过本文我们能够知道什么是爬虫,都有那些分类,爬虫能干什么等,同时还会站在爬虫的角度复习一下http协议。本阶段本文主要学习requests这个http模块,该模块主要用于发送请求响应,该模块有很多的替代模块,比如说urllib模块,但是在工作中用的最多的还是requests模块,requests的代码简洁易懂,相对于臃肿的urllib模块

本文主要学习一下关于爬虫的相关前置知识和一些理论性的知识,通过本文我们能够知道什么是爬虫,都有那些分类,爬虫能干什么等,同时还会站在爬虫的角度复习一下http协议。


完整版笔记直接地址: 请移步这里



共 8 章,37 子模块,总计 56668 字





requests模块


本阶段本文主要学习requests这个http模块,该模块主要用于发送请求响应,该模块有很多的替代模块,比如说urllib模块,但是在工作中用的最多的还是requests模块,requests的代码简洁易懂,相对于臃肿的urllib模块,使用requests编写的爬虫代码将会更少,而且实现某一功能将会简单。因此建议大家掌握该模块的使用


requests模块



知识点:


  • 掌握 headers参数的使用

  • 掌握 发送带参数的请求

  • 掌握 headers中携带cookie

  • 掌握 cookies参数的使用

  • 掌握 cookieJar的转换方法

  • 掌握 超时参数timeout的使用

  • 掌握 代理ip参数proxies的使用

  • 掌握 使用verify参数忽略CA证书

  • 掌握 requests模块发送post请求

  • 掌握 利用requests.session进行状态保持


前面我们了解了爬虫的基础知识,接下来我们来学习如何在代码中实现我们的爬虫


1. requests模块介绍



1.1 requests模块的作用:


  • 发送http请求,响应数据


1.2 requests模块是一个第三方模块,需要在你的python(虚拟)环境中额外安装


  • pip/pip3 install requests


1.3 requests模块发送get请求


  1. 需求:通过requests向百度首页发送请求,该页面的源码

  2. 运行下面的代码,观察打印输出的结果



# 1.2.1-简单的代码实现


import requests 


# 目标url


url = 'htt://www.baidu.com' 


# 向目标url发送get请求


response = requests.get(url)


# 打印响应内容


print(response.text)


知识点:掌握 requests模块发送get请求




2. response响应对象


观察上边代码运行结果发现,有好多乱码;这是因为编解码使用的字符集不同早造成的;我们尝试使用下边的办法来解决中文乱码问题


# 1.2.2-response.content


import requests 


# 目标url


url = 'htt://www.baidu.com' 


# 向目标url发送get请求


response = requests.get(url)


# 打印响应内容


# print(response.text)


print(response.content.decode()) # 注意这里!
  1. response.text 是requests模块按照chardet模块推测出的编码字符集进行解码的结果

  2. 网络传输的字符串都是bytes类型的,所以response.text = response.content.decode('推测出的编码字符集')

  3. 我们可以在网页源码中搜索charset,尝试参考该编码字符集,注意存在不准确的情况


2.1 response.text 和response.content的区别:


  • response.text

    • 类型:str

    • 解码类型: requests模块自动根据HTTP 头部对响应的编码作出有根据的推测,推测的文本编码

  • response.content

    • 类型:bytes

    • 解码类型: 没有指定



知识点:掌握 response.text和response.content的区别




2.2 通过对response.content进行decode,来解决中文乱码


  • response.content.decode() 默认utf-8

  • response.content.decode("GBK")

  • 常见的编码字符集

    • utf-8

    • gbk

    • gb2312

    • ascii (读音:阿斯克码)

    • iso-8859-1



知识点:掌握 利用decode函数对requests.content解决中文乱码




2.3 response响应对象的其它常用属性或方法


response = requests.get(url)中response是发送请求的响应对象;response响应对象中除了text、content响应内容以外还有其它常用的属性或方法:

  • response.url响应的url;有时候响应的url和请求的url并不一致

  • response.status_code 响应状态码

  • response.request.headers 响应对应的请求头

  • response.headers 响应头

  • response.request._cookies 响应对应请求的cookie;返回cookieJar类型

  • response.cookies 响应的cookie(经过了set-cookie动作;返回cookieJar类型

  • response.json()自动将json字符串类型的响应内容转换为python对象(dict or list)


# 1.2.3-response其它常用属性


import requests


# 目标url


url = 'htt://www.baidu.com'


# 向目标url发送get请求


response = requests.get(url)


# 打印响应内容


# print(response.text)


# print(response.content.decode())             # 注意这里!


print(response.url)                            # 打印响应的url
print(response.status_code)                    # 打印响应的状态码
print(response.request.headers)                # 打印响应对象的请求头
print(response.headers)                        # 打印响应头
print(response.request._cookies)            # 打印请求携带的cookies
print(response.cookies)                        # 打印响应中携带的cookies


知识点:掌握 response响应对象的其它常用属性




3. requests模块发送请求


3.1 发送带header的请求


我们先写一个百度首页的代码

import requests
​
url = 'htt://www.baidu.com'
​
response = requests.get(url)
​
print(response.content.decode())


# 打印响应对应请求的请求头信息
print(response.request.headers)


3.1.1 思考


  1. 对比浏览器上百度首页的网页源码和代码中的百度首页的源码,有什么不同?

* 查看网页源码的方法:
  * 右键-查看网页源代码 或
  * 右键-检查
  1. 对比对应url的响应内容和代码中的百度首页的源码,有什么不同?

* 查看对应url的响应内容的方法:
  1. 右键-检查
  2. 点击 `Net work`
  3. 勾选 `Preserve log`
  4. 刷新页面
  5. 查看`Name`一栏下和浏览器地址栏相同的url的`Response`
  1. 代码中的百度首页的源码非常少,为什么?

* 需要我们带上请求头信息

回顾爬虫的概念,模拟浏览器,欺骗服务器,和浏览器一致的内容

* 请求头中有很多字段,其中User-Agent字段必不可少,表示客户端的操作系统以及浏览器的信息


3.1.2 携带请求头发送请求的方法


requests.get(url, headers=headers)

  • headers参数接收字典形式的请求头

  • 请求头字段名作为key,字段对应的值作为value


3.1.3 完成代码实现


从浏览器中复制User-Agent,构造headers字典;完成下面的代码后,运行代码查看结果

import requests
​
url = 'htt://www.baidu.com'
​
headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}


# 在请求头中带上User-Agent,模拟浏览器发送请求


response = requests.get(url, headers=headers) 
​
print(response.content)


# 打印请求头信息


print(response.request.headers)


知识点:掌握 headers参数的使用




3.2 发送带参数的请求


我们在使用百度搜索的时候经常发现url地址中会有一个 ?,那么该问号后边的就是请求参数,又叫做查询字符串


3.2.1 在url携带参数


直接对含有参数的url发起请求

​ import requests ​ headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"} ​ url = 'htt://ww.baidu.com/s?wd=python' response = requests.get(url, headers=headers)


3.2.2 通过params携带参数字典


1.构建请求参数字典

2.向接口发送请求的时候带上参数字典,参数字典设置给params

​ import requests ​ headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"}


# 这是目标url


# url = 'htt://www.baidu.com/s?wd=python'


# 最后有没有问号结果都一样


url = 'htt://www.baidu.com/s?'


# 请求参数是一个字典 即wd=python


kw = {'wd': 'python'}


# 带上请求参数发起请求,响应


response = requests.get(url, headers=headers, params=kw)
​
print(response.content)


知识点:掌握发送带参数的请求的方法




3.3 在headers参数中携带cookie


网站经常利用请求头中的Cookie字段来做用户访问状态的保持,那么我们可以在headers参数中添加Cookie,模拟普通用户的请求。我们以github登陆为例:


3.3.1 github登陆抓包分析


  1. 打开浏览器,右键-检查,点击Net work,勾选Preserve log

  2. 访问github登陆的url地址 https://github.com/login

  3. 输入账号密码点击登陆后,访问一个需要登陆后才能正确内容的url,比如点击右上角的Your profile访问https://github.com/USER_NAME

  4. 确定url之后,再确定发送该请求所需要的请求头信息中的User-Agent和Cookie

requests-3-2-1-4


3.3.2 完成代码


  • 从浏览器中复制User-Agent和Cookie

  • 浏览器中的请求头字段和值与headers参数中必须一致

  • headers请求参数字典中的Cookie键对应的值是字符串


    import requests

    url = 'htt://github.com/USER_NAME'

# 构造请求头字典


headers = {


    # 从浏览器中复制过来的User-Agent


    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',


    # 从浏览器中复制过来的Cookie


    'Cookie': 'xxx这里是复制过来的cookie字符串'
}


# 请求头参数字典中携带cookie字符串


resp = requests.get(url, headers=headers)
​
print(resp.text)


3.3.3 运行代码验证结果


在打印的输出结果中搜索title,html中的标题文本内容如果是你的github账号,则成功利用headers参数携带cookie,登陆后才能访问的页面

requests-3-2-3



知识点:掌握 headers中携带cookie




3.4 cookies参数的使用


上一小节我们在headers参数中携带cookie,也可以使用专门的cookies参数

  1. cookies参数的形式:字典

cookies = {"cookie的name":"cookie的value"}

* 该字典对应请求头中Cookie字符串,以分号、空格分割每一对字典键值对
* 等号左边的是一个cookie的name,对应cookies字典的key
* 等号右边对应cookies字典的value
  1. cookies参数的使用方法

response = requests.get(url, cookies)

  1. 将cookie字符串转换为cookies参数所需的字典:

cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}

  1. 注意: cookie 一般是有过期时间的,一旦过期需要重新

​ import requests ​ url = 'htt://github.com/USER_NAME'


# 构造请求头字典


headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36'
}


# 构造cookies字典


cookies_str = '从浏览器中copy过来的cookies字符串'
​
cookies_dict = {cookie.split('=')[0]:cookie.split('=')[-1] for cookie in cookies_str.split('; ')}


# 请求头参数字典中携带cookie字符串


resp = requests.get(url, headers=headers, cookies=cookies_dict)
​
print(resp.text)


知识点:掌握 cookies参数的使用




3.5 cookieJar对象转换为cookies字典的方法


使用requests的resposne对象,具有cookies属性。该属性值是一个cookieJar类型,包含了对方服务器设置在本地的cookie。我们如何将其转换为cookies字典呢?

  1. 转换方法

cookies_dict = requests.utils.dict_from_cookiejar(response.cookies)

  1. 其中response.cookies返回的就是cookieJar类型的对象

  2. requests.utils.dict_from_cookiejar函数返回cookies字典



知识点:掌握 cookieJar的转换方法




3.6 超时参数timeout的使用


在平时网上冲浪的过程中,我们经常会遇到网络波动,这个时候,一个请求等了很久可能任然没有结果。

在爬虫中,一个请求很久没有结果,就会让整个项目的效率变得非常低,这个时候我们就需要对请求进行强制要求,让他必须在特定的时间内返回结果,否则就报错。

  1. 超时参数timeout的使用方法

response = requests.get(url, timeout=3)

  1. timeout=3表示:发送请求后,3秒钟内返回响应,否则就抛出异常

​ import requests

​ url = 'https://twitter.com' ​ response = requests.get(url, timeout=3) # 设置超时时间



知识点:掌握 超时参数timeout的使用




3.7 了解代理以及proxy代理参数的使用


proxy代理参数通过指定代理ip,让代理ip对应的正向代理服务器转发我们发送的请求,那么我们首先来了解一下代理ip以及代理服务器


3.7.1 理解使用代理的过程


  1. 代理ip是一个ip,指向的是一个代理服务器

  2. 代理服务器能够帮我们向目标服务器转发请求

使用代理的过程


3.7.2 正向代理和反向代理的区别


前边提到proxy参数指定的代理ip指向的是正向的代理服务器,那么相应的就有反向服务器;现在来了解一下正向代理服务器和反向代理服务器的区别

  1. 从发送请求的一方的角度,来区分正向或反向代理

  2. 为浏览器或客户端(发送请求的一方)转发请求的,叫做正向代理

* 浏览器知道最终处理请求的服务器的真实ip地址,例如VPN
  1. 不为浏览器或客户端(发送请求的一方)转发请求、而是为最终处理请求的服务器转发请求的,叫做反向代理

* 浏览器不知道服务器的真实地址,例如nginx


3.7.3 代理ip(代理服务器)的分类


  1. 根据代理ip的匿名程度,代理IP可以分为下面三类:

* 透明代理(Transparent Proxy):透明代理虽然可以直接"隐藏"你的IP地址,但是还是可以查到你是谁。目标服务器接收到的请求头如下:
    
            REMOTE_ADDR = Proxy IP
    HTTP_VIA = Proxy IP
    HTTP_X_FORWARDED_FOR = Your IP
* 匿名代理(Anonymous Proxy):使用匿名代理,别人只能知道你用了代理,无法知道你是谁。目标服务器接收到的请求头如下:
    
            REMOTE_ADDR = proxy IP
    HTTP_VIA = proxy IP
    HTTP_X_FORWARDED_FOR = proxy IP
* 高匿代理(Elite proxy或High Anonymity Proxy):高匿代理让别人根本无法发现你是在用代理,所以是最好的选择。 **毫 无疑问使用高匿代理效果最好**。目标服务器接收到的请求头如下:
    
            REMOTE_ADDR = Proxy IP
    HTTP_VIA = not determined
    HTTP_X_FORWARDED_FOR = not determined
  1. 根据网站所使用的协议不同,需要使用相应协议的代理服务。从代理服务请求使用的协议可以分为:

* http代理:目标url为http协议
* https代理:目标url为https协议
* socks隧道代理(例如socks5代理)等:
  1. socks 代理只是简单地传递数据包,不关心是何种应用协议(FTP、HTTP和HTTPS等)。
  2. socks 代理比http、https代理耗时少。
  3. socks 代理可以转发http和https的请求


3.7.4 proxies代理参数的使用


为了让服务器以为不是同一个客户端在请求;为了防止频繁向一个域名发送请求被封ip,所以我们需要使用代理ip;那么我们接下来要学习requests模块是如何使用代理ip的

  • 用法:

    response = requests.get(url, proxies=proxies)

  • proxies的形式:字典

  • 例如:

    proxies = { "http": "htt://12.34.56.79:9527", "https": "htt://12.34.56.79:9527", }

  • 注意:如果proxies字典中包含有多个键值对,发送请求时将按照url地址的协议来选择使用相应的代理ip



知识点:掌握 代理ip参数proxies的使用




3.8 使用verify参数忽略CA证书


在使用浏览器上网的时候,有时能够看到下面的提示(2018年10月之前的12306网站):

12306ssl错误

  • 原因:该网站的CA证书没有经过【受信任的根证书颁发机构】的认证

  • 关于CA证书以及受信任的根证书颁发机构点击了解更多,课上我们不做展开


3.8.1 运行代码查看代码中向不安全的链接发起请求的效果


运行下面的代码将会抛出包含ssl.CertificateError ...字样的异常

import requests
url = "htt://sam.huat.edu.cn:8443/selfservice/"
response = requests.get(url)


3.8.2 解决方案


为了在代码中能够正常的请求,我们使用verify=False参数,此时requests模块发送请求将不做CA证书的验证:verify参数能够忽略CA证书的认证

import requests
url = "htt://sam.huat.edu.cn:8443/selfservice/" 
response = requests.get(url,verify=False)


知识点:掌握 使用verify参数忽略CA证书






未完待续 下一期下一章


完整笔记请看文章开头

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。