Python之JavaScript逆向系列——4、Body

举报
红目香薰 发表于 2023/12/19 13:37:23 2023/12/19
【摘要】 ​ Python之JavaScript逆向系列——4、Body目录Python之JavaScript逆向系列——4、Body前言环境准备正文parsel语法获取示例前言大家好,本系列文章主要为大家提供的价值方向是网络信息获取,自动化的提取、收集、下载和记录互联网上的信息,加之自身分析,可以让价值最大化。整个内容中不会涉及到过为敏感的内容。在这个AI+云计算+大数据时代,我们眼睛所看到的百分之...

 

Python之JavaScript逆向系列——4、Body


目录

Python之JavaScript逆向系列——4、Body

前言

环境准备

正文

parsel语法

获取示例



前言

大家好,本系列文章主要为大家提供的价值方向是网络信息获取,自动化的提取、收集、下载和记录互联网上的信息,加之自身分析,可以让价值最大化。整个内容中不会涉及到过为敏感的内容。

在这个AI+云计算+大数据时代,我们眼睛所看到的百分之九十的数据都是通过页面呈现出现的,不论是PC端、网页端还是移动端,数据渲染还是基于HTML+JavaScript进行的,而大多数的数据都是通过request请求后台API接口动态渲染的。而想成功的请求成功互联网上的开放/公开接口,必须知道它的【URL】、【Headers】、【Params】、【Body】等数据是如何生成的。我们需要了解浏览器开发者工具的功能,入门JS逆向,入门后还需要掌握例如如何【反编译js混淆】等内容,为了避免封本机IP,还需要对每次访问的IP进行代理,当我们拥有了JS逆向的能力后,根据JS所返回的动态请求参数信息便可以进行Python的具体信息获取操作,需要的知识点非常的多,故而本系列文章理论+实践会达到上百篇的文章,这篇文章是总篇,为了方便大家来直接查找所有知识点,建议之间关注收藏本篇,期望能给大家带来更高的价值。

环境准备

系统环境:win11

开发工具:PyCharm: the Python IDE for Professional Developers by JetBrains

IP代理:品易HTTP - 代理IP日更400万 - 为企业提供HTTP代理IP定制服务

api工具:Eolink - 一体化API在线管理平台_API接口管理_接口自动化测试

数据库:MySQL5.7.32——阿里云RDS数据库

主要python库:requests、PyExecJS、parsel

正文

body也就是正文内容,我们实际请求页面成功之后便会返回一个页面的所有信息,其中我们需要的内容基本都在body里面,例如我们需要在一个小说网站内获取小说的内容,可以看到当前的情况:

我们仅需要从body里面获取信息即可。需要使用到【parsel】库来筛选数据。

parsel语法

Python的`parsel`库是一个用于处理HTTP请求和解析HTTP响应的强大工具。它提供了许多功能,包括发送HTTP请求、解析响应体、解析HTML和XML文档等。下面是一个简单的示例,展示如何使用`parsel`库来发送HTTP请求并解析响应。

首先,你需要安装`parsel`库。可以使用pip命令进行安装:

pip install parsel

然后,你可以使用以下代码来发送HTTP请求并解析响应:

from parsel import Parser, urlopen

# 创建一个解析器对象
p = Parser()

# 发送HTTP GET请求到指定的URL
response = urlopen("http://example.com")

# 解析响应体
doc = p.parse(response.text)

# 遍历并打印出所有链接
for link in doc.links:
    print(link)

这个例子展示了如何使用`parsel`库的基本功能。以下是一些更高级的功能,可以帮助你更好地使用`parsel`库:

* 发送HTTP POST请求:可以使用`urlopen`函数发送POST请求,并传递一个字典作为请求体。例如:

from parsel import Parser, urlopen, Request

p = Parser()

url = "http://example.com/api"
data = {"key1": "value1", "key2": "value2"}
request = Request(url=url, method="POST", data=data)
response = urlopen(request)
doc = p.parse(response.text)

* 解析HTML和XML文档:`parsel`库还提供了解析HTML和XML文档的功能。可以使用`Selector`类来选择和提取HTML或XML文档中的元素。例如:

from parsel import Selector, urlopen

doc = Selector(text=urlopen("http://example.com/page.html").text)
print(doc.select("div.content"))  # 选择所有class为"content"的div元素

* 使用正则表达式提取数据:`parsel`库还提供了使用正则表达式提取数据的功能。可以使用`re`模块在解析过程中使用正则表达式匹配数据。例如:

import re
from parsel import Parser, urlopen, Selector, re_type_matches_named_group

doc = Selector(text=urlopen("http://example.com/page.html").text)
data = doc.text_content().strip()  # 提取文本内容,移除前后的空白字符
match = re.search(r"your-regex-pattern", data)  # 使用正则表达式匹配数据
if match and re_type_matches_named_group(match):  # 如果匹配成功并且使用了命名捕获组,提取匹配到的值
    print(match.group('named-group'))  # 输出匹配到的值名称为'named-group'的值

这只是`parsel`库的一些基本功能和使用方法。你可以查阅官方文档以获取更多详细信息和示例代码。

获取示例

根据parsel完成的一个示例,这里没有完整的内容,但是能根据语法进行一定的分析,这几篇文章都是理论,让我们后面更好的去实际操作。

def GetUrl(url):
    try:
        html = requests.get(url, headers=headers)
        sel = parsel.Selector(html.text)
        # 获取主Title
        mTitle.append(sel.css(".book-meta h1::text").getall()[0])
        href = sel.css(".volume-list ul a::attr(href)").getall()
        # 获取标题
        text = sel.css(".volume-list ul a::text").getall()
        for item1, item2 in zip(href, text):
            a_href_list = ["", ""]
            a_href_list[0] = item1
            a_href_list[1] = item2
            a_href_arr.append(a_href_list)
        print("列表获取完毕")
    except:
        print("解析异常")

【版权声明】本文为华为云社区用户原创内容,转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息, 否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。