Python之使用request模块发送POST和GET请求

举报
J_D_Allen 发表于 2020/12/27 22:54:18 2020/12/27
【摘要】 import requests import json 12 发送get请求并得到结果 url = 'http://api.nnzhp.cn/api/user/stu_info?stu_name=aaa '#请求接口 req = requests.get(url)#发送请求 print(req.text)#获取请求,得到的是json格式 print(json.loa...
import requests
import json

  
 
  • 1
  • 2

发送get请求并得到结果

url = 'http://api.nnzhp.cn/api/user/stu_info?stu_name=aaa '#请求接口
req = requests.get(url)#发送请求
print(req.text)#获取请求,得到的是json格式
print(json.loads(req.text))#获取请求,得到的是字典格式
print(type(req.text))
print(type(json.loads(req.text))

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

发送post请求,注册接口

url = 'http://api.nnzhp.cn/api/user/user_reg'
data = {'username':'mpp0130','pwd':'Mp123456','cpwd':'Mp123456'}
req = requests.post(url,data)#发送post请求,第一个参数是URL,第二个参数是请求数据
print(json.loads(req.text))

  
 
  • 1
  • 2
  • 3
  • 4

入参是json

url = 'http://api.nnzhp.cn/api/user/add_stu'
data = {'name':'mapeipei','grade':'Mp123456','phone':15601301234}
req = requests.post(url,json=data)
print(json.loads(req.text))

  
 
  • 1
  • 2
  • 3
  • 4

添加header

url = 'http://api.nnzhp.cn/api/user/all_stu'
header = {'Referer':'http://api.nnzhp.cn/'}
res = requests.get(url,headers=header)
print(json.loads(req.text))

  
 
  • 1
  • 2
  • 3
  • 4

添加cookie

url = 'http://api.nnzhp.cn/api/user/gold_add'
data = {'stu_id':231,'gold':123}
cookie = {'niuhanyang':'7e4c46e5790ca7d5165eb32d0a895ab1'}
req = requests.post(url,data,cookies=cookie)
print(json.loads(req.text))

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

上传文件

url = 'http://api.nnzhp.cn/api/file/file_upload'
f = open(r'E:\besttest\te\python-mpp\day7\练习\11.jpg','rb')
r = requests.post(url,files={'file':f})
users_dic = json.loads(r.text)
print(users_dic)

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

下载文件

url = 'http://www.besttest.cn/data/upload/201710/f_36b1c59ecf3b8ff5b0acaf2ea42bafe0.jpg'
r = requests.get(url)
print(r.status_code)#获取请求的状态码
print(r.content)#获取返回结果的二进制格式
fw = open('mpp.jpg','wb')
fw.write(r.content)
fw.close()

  
 
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7

#把浏览器页面下载到本地 保存网页,可以理解为简单的爬虫工具

url='http://www.nnzhp.cn/archives/630'
r = requests.get(url)
f = open('nnzhp.html','wb')
f.write(r.content)
f.close()

  
 
  • 1
  • 2
  • 3
  • 4
  • 5

文章来源: blog.csdn.net,作者:J_D_Allen,版权归原作者所有,如需转载,请联系作者。

原文链接:blog.csdn.net/J_D_Allen/article/details/90480955

【版权声明】本文为华为云社区用户转载文章,如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。