结合LangChain实现网页数据爬取
【摘要】 LangChain 非常强大的一点就是封装了非常多强大的工具可以直接使用。降低了使用者的学习成本。比如数据网页爬取。在其官方文档-网页爬取中,也有非常好的示例。 应用场景信息爬取。RAG 信息检索。 实践应用 需求说明从 ceshiren 网站中获取每个帖子的名称以及其对应的url信息。ceshiren论坛地址:https://ceshiren.com/ 实现思路 对应源码# 定义大模型fr...
LangChain 非常强大的一点就是封装了非常多强大的工具可以直接使用。降低了使用者的学习成本。比如数据网页爬取。
在其官方文档-网页爬取中,也有非常好的示例。
应用场景
- 信息爬取。
- RAG 信息检索。
实践应用
需求说明
- 从 ceshiren 网站中获取每个帖子的名称以及其对应的url信息。
- ceshiren论坛地址:https://ceshiren.com/
实现思路
对应源码
# 定义大模型
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(temperature=0, model="gpt-3.5-turbo-0613")
# 定义提取方法
def extract(content: str, schema: dict):
from langchain.chains import create_extraction_chain
return create_extraction_chain(schema=schema, llm=llm).invoke(content)
import pprint
from langchain_text_splitters import RecursiveCharacterTextSplitter
def scrape_with_playwright(urls, schema):
# 加载数据
loader = AsyncChromiumLoader(urls)
docs = loader.load()
# 数据转换
bs_transformer = BeautifulSoupTransformer()
# 提取其中的span标签
docs_transformed = bs_transformer.transform_documents(
docs, tags_to_extract=["span"]
)
# 数据切分
splitter = RecursiveCharacterTextSplitter.from_tiktoken_encoder(
chunk_size=1000, chunk_overlap=0)
splits = splitter.split_documents(docs_transformed)
# 因为数据量太大,输入第一片数据使用,传入使用的架构
extracted_content = extract(schema=schema, content=splits[0].page_content)
pprint.pprint(extracted_content)
return extracted_content
urls = ["https://ceshiren.com/"]
schema = {
"properties": {
"title": {"type": "string"},
"url": {"type": "string"},
},
"required": ["title", "url"],
}
extracted_content = scrape_with_playwright(urls, schema=schema)
总结
- 了解网页爬取的实现思路以及相关技术。
- 通过LangChain实现爬取测试人网页的标题和url。
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)