RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外

举报
Echo_Wish 发表于 2025/10/30 21:14:59 2025/10/30
【摘要】 RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外

RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外挂

大家好,我是你们熟悉的 Echo_Wish
今天咱聊一个最近特别火、但很多人还没整明白的技术——RAG(Retrieval Augmented Generation)检索增强生成

说实话,大模型很强,但你让它回答:

  • “我们公司采购流程是什么?”
  • “我们内部产品架构是怎么分层的?”
  • “客户A去年发生了哪些售后工单?”

它基本会胡编乱造——因为它根本不知道你们公司的数据

RAG 技术的作用,就是把你企业的数据接到大模型的“脑子里”。让大模型不仅聪明,而且懂业务。


一、先来一句人话总结什么是 RAG

RAG = 检索 + 生成
“模型先去找内容,再根据找到的内容回答问题。”

它不是让模型记住数据,而是让模型用的时候再去查

就像你平时写报告不是全靠脑子,而是:

  • 先去翻文档/群聊天/数据库
  • 再组织内容写报告

RAG做的事情和你一样,只是自动化了。


二、为什么大模型离不开 RAG?

1)大模型不是记忆体,它是“语言理解器”

它其实记不了你公司的文档、知识库、业务流程。

2)企业数据变化快,模型没法天天重新训练

重新训练一次模型成本可能上百万,还得排期。

3)模型可能会“一本正经地胡说八道”

因为它会 “猜”
而 RAG 的目标就是
让模型从“猜答案” → “查答案”


三、RAG 的工作流程长这样(超级简单)

用户提问 → 向量搜索相关资料 → 取出最相关的几段文本
↓
把这些文本一起喂给大模型
↓
大模型根据真实内容生成回答

一句话:大模型不再瞎说,因为它每句话都得基于证据。

下面我们画一张通俗易懂的小图:

     ┌────────────┐           ┌──────────────┐
     │ 用户问题    │           │ 企业文档知识库 │
     └─────┬──────┘           └──────┬───────┘
           │                          │
           │ 把文本变向量              │ 文档向量化存储
           ▼                          ▼
      ┌─────────┐   向量相似度   ┌──────────────┐
      │ 问题向量 │ <------------> │ 文档向量索引库 │
      └─────┬───┘                 └──────┬───────┘
           │                              
           │ 找到最相关的文本片段        
           ▼
     ┌────────────────────┐
     │ LLM(大模型)       │ ← 真实业务内容增强输入
     └────────────────────┘
                   │
                   ▼
           ✅ 输出靠谱业务答案

四、来点实操:用 Python 实现一个最小 RAG 原型

环境要求:

  • Python
  • sentence-transformers(做向量化)
  • faiss(做向量搜索)
  • 任意大模型接口(以OpenAI格式为例)
from sentence_transformers import SentenceTransformer
import faiss
import numpy as np
from openai import OpenAI

# 1. 准备企业文档
docs = [
    "我们公司的采购流程包括:需求提出 → 上级审批 → 采购比价 → 合同签署 → 入库验收。",
    "售后服务响应时效为:高优先级4小时,低优先级24小时。",
    "产品架构分为三层:前端展示层、业务逻辑层、数据存储层。"
]

# 2. 文本向量化
model = SentenceTransformer("all-MiniLM-L6-v2")
doc_embeddings = model.encode(docs)

# 3. 构建向量索引库
index = faiss.IndexFlatL2(doc_embeddings.shape[1])
index.add(doc_embeddings)

# 4. 用户提问
query = "请解释一下我们公司的采购流程"
query_vec = model.encode([query])

# 5. 检索最相关文档
D, I = index.search(query_vec, 1)
retrieved_text = docs[I[0][0]]

# 6. 调用大模型生成回答
client = OpenAI()
prompt = f"参考以下内容回答问题:\n\n{retrieved_text}\n\n问题:{query}\n回答:"

response = client.chat.completions.create(
    model="gpt-5",
    messages=[{"role": "user", "content": prompt}]
)

print(response.choices[0].message.content)

你会发现:

不需要训练模型
不需要微调
不需要让模型“记住”公司文档

只需要:查 → 喂 → 答

简单、直接、有效。


五、RAG 在企业中的现实作用

场景 能带来哪些真实提升
客服知识库自动问答 客服响应一致、效率高
售后工单辅助处理 新人不用多年经验也能处理复杂问题
内部流程规范查询 员工不用到处问,“文档里都有”真的可用了
研发文档助理 找接口、查依赖、定位错误更快

一句话:

RAG能让“文档真正成为生产力”。


六、但别把 RAG 想得过于神圣,它也有坑

问题 解决方案
文本切片不合理会检索错内容 需要分割策略(chunking)优化
文档不更新会回答过时信息 必须建立 文档维护流程
向量搜索质量受模型影响 选好 embedding 模型比选大模型更重要

真正做落地时要记住:
RAG不是一次接通,是一个持续运营体系。


七、总结一句话

大模型给了我们思考能力,但 RAG 给了它记忆和理解业务的能力。

没有 RAG:模型是“懂道理,但不了解你家情况的哲学家”
有了 RAG:模型变成“既懂道理又了解你公司业务的老同事”

【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@huaweicloud.com
  • 点赞
  • 收藏
  • 关注作者

评论(0

0/1000
抱歉,系统识别当前为高风险访问,暂不支持该操作

全部回复

上滑加载中

设置昵称

在此一键设置昵称,即可参与社区互动!

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。

*长度不超过10个汉字或20个英文字符,设置后3个月内不可修改。