RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外
【摘要】 RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外
RAG不是“外挂提示词”,而是让大模型真正懂你业务的大脑外挂
大家好,我是你们熟悉的 Echo_Wish。
今天咱聊一个最近特别火、但很多人还没整明白的技术——RAG(Retrieval Augmented Generation)检索增强生成。
说实话,大模型很强,但你让它回答:
- “我们公司采购流程是什么?”
- “我们内部产品架构是怎么分层的?”
- “客户A去年发生了哪些售后工单?”
它基本会胡编乱造——因为它根本不知道你们公司的数据。
而 RAG 技术的作用,就是把你企业的数据接到大模型的“脑子里”。让大模型不仅聪明,而且懂业务。
一、先来一句人话总结什么是 RAG
RAG = 检索 + 生成
“模型先去找内容,再根据找到的内容回答问题。”
它不是让模型记住数据,而是让模型用的时候再去查。
就像你平时写报告不是全靠脑子,而是:
- 先去翻文档/群聊天/数据库
- 再组织内容写报告
RAG做的事情和你一样,只是自动化了。
二、为什么大模型离不开 RAG?
1)大模型不是记忆体,它是“语言理解器”
它其实记不了你公司的文档、知识库、业务流程。
2)企业数据变化快,模型没法天天重新训练
重新训练一次模型成本可能上百万,还得排期。
3)模型可能会“一本正经地胡说八道”
因为它会 “猜”
而 RAG 的目标就是
让模型从“猜答案” → “查答案”。
三、RAG 的工作流程长这样(超级简单)
用户提问 → 向量搜索相关资料 → 取出最相关的几段文本
↓
把这些文本一起喂给大模型
↓
大模型根据真实内容生成回答
一句话:大模型不再瞎说,因为它每句话都得基于证据。
下面我们画一张通俗易懂的小图:
┌────────────┐ ┌──────────────┐
│ 用户问题 │ │ 企业文档知识库 │
└─────┬──────┘ └──────┬───────┘
│ │
│ 把文本变向量 │ 文档向量化存储
▼ ▼
┌─────────┐ 向量相似度 ┌──────────────┐
│ 问题向量 │ <------------> │ 文档向量索引库 │
└─────┬───┘ └──────┬───────┘
│
│ 找到最相关的文本片段
▼
┌────────────────────┐
│ LLM(大模型) │ ← 真实业务内容增强输入
└────────────────────┘
│
▼
✅ 输出靠谱业务答案
四、来点实操:用 Python 实现一个最小 RAG 原型
环境要求:
- Python
sentence-transformers(做向量化)faiss(做向量搜索)- 任意大模型接口(以OpenAI格式为例)
from sentence_transformers import SentenceTransformer
import faiss
import numpy as np
from openai import OpenAI
# 1. 准备企业文档
docs = [
"我们公司的采购流程包括:需求提出 → 上级审批 → 采购比价 → 合同签署 → 入库验收。",
"售后服务响应时效为:高优先级4小时,低优先级24小时。",
"产品架构分为三层:前端展示层、业务逻辑层、数据存储层。"
]
# 2. 文本向量化
model = SentenceTransformer("all-MiniLM-L6-v2")
doc_embeddings = model.encode(docs)
# 3. 构建向量索引库
index = faiss.IndexFlatL2(doc_embeddings.shape[1])
index.add(doc_embeddings)
# 4. 用户提问
query = "请解释一下我们公司的采购流程"
query_vec = model.encode([query])
# 5. 检索最相关文档
D, I = index.search(query_vec, 1)
retrieved_text = docs[I[0][0]]
# 6. 调用大模型生成回答
client = OpenAI()
prompt = f"参考以下内容回答问题:\n\n{retrieved_text}\n\n问题:{query}\n回答:"
response = client.chat.completions.create(
model="gpt-5",
messages=[{"role": "user", "content": prompt}]
)
print(response.choices[0].message.content)
你会发现:
不需要训练模型
不需要微调
不需要让模型“记住”公司文档
只需要:查 → 喂 → 答
简单、直接、有效。
五、RAG 在企业中的现实作用
| 场景 | 能带来哪些真实提升 |
|---|---|
| 客服知识库自动问答 | 客服响应一致、效率高 |
| 售后工单辅助处理 | 新人不用多年经验也能处理复杂问题 |
| 内部流程规范查询 | 员工不用到处问,“文档里都有”真的可用了 |
| 研发文档助理 | 找接口、查依赖、定位错误更快 |
一句话:
RAG能让“文档真正成为生产力”。
六、但别把 RAG 想得过于神圣,它也有坑
| 问题 | 解决方案 |
|---|---|
| 文本切片不合理会检索错内容 | 需要分割策略(chunking)优化 |
| 文档不更新会回答过时信息 | 必须建立 文档维护流程 |
| 向量搜索质量受模型影响 | 选好 embedding 模型比选大模型更重要 |
真正做落地时要记住:
RAG不是一次接通,是一个持续运营体系。
七、总结一句话
大模型给了我们思考能力,但 RAG 给了它记忆和理解业务的能力。
没有 RAG:模型是“懂道理,但不了解你家情况的哲学家”
有了 RAG:模型变成“既懂道理又了解你公司业务的老同事”
【声明】本内容来自华为云开发者社区博主,不代表华为云及华为云开发者社区的观点和立场。转载时必须标注文章的来源(华为云社区)、文章链接、文章作者等基本信息,否则作者和本社区有权追究责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱:
cloudbbs@huaweicloud.com
- 点赞
- 收藏
- 关注作者
评论(0)