聚水潭
118.20M · 2026-03-13
你有没有遇到过这样的尴尬?
AI大模型小白手册|基础原理篇
AI大模型小白手册 | API调用的魔法指南
AI大模型小白手册|如何像工程师一样写Prompt
AI大模型小白手册|Embedding 与向量数据库
想象一下,你有一个超级聪明但“记性有限”的助手(大模型)。你想让它帮你做事,有三种方式:
怎么做:用你的数据重新训练模型的一部分。
优点:模型真正“学会”你的领域知识。
缺点:贵、慢、需要大量数据和算力。
RAG = Retrieval-Augmented Generation(检索增强生成)
简单说:让大模型“边查资料边答题” ,就像考试允许带课本!
分片(Chunking) 把你的长文档(如PDF、Word)切成小段,比如每段512字。
向量化(Embedding) 用 Embedding 模型 把每段文字转成数字向量(就像给每段话生成“指纹”)。
存入向量数据库 把所有“指纹”存进数据库(比如 FAISS、Chroma),方便快速查找。
用户提问 → 检索相关片段
生成答案 把问题 + 检索到的文档片段,一起喂给大模型(如 DeepSeek),让它生成基于事实的答案!
“Native RAG” 并不是一个官方术语,但在社区中常指 最基础、最直接的 RAG 实现方式,特点如下:
Embedding 模型是 RAG 的“眼睛”——它决定能否准确找到相关文档。
| 模型 | 特点 | 适用场景 |
|---|---|---|
| text-embedding-3-small/large(OpenAI) | 效果好,API 调用 | 有预算、追求效果 |
| BGE-M3 / BGE-large-zh(智源) | 中文强、开源免费 | 中文项目首选 |
| E5 / multilingual-E5(微软) | 多语言支持好 | 国际化项目 |
| gte-Qwen(阿里) | 与通义千问生态兼容 | 阿里云用户 |
下面我们用 Python 写一个超简版 RAG 系统!
BGE-large-zhFAISS(Face@book 开源,轻量高效)LangChain(可选,简化流程)from sentence_transformers import SentenceTransformer
import faiss
import numpy as np
# 1. 加载 Embedding 模型
embedder = SentenceTransformer('BAAI/bge-large-zh-v1.5')
# 2. 准备你的知识库(示例)
docs = [
"公司年假正策:工作满1年享5天年假,满3年享10天。",
"报销流程:需提交发票+审批单,3个工作日内到账。",
"入职第一天需签署保密协议和劳动合同。"
]
# 3. 向量化并存入 FAISS
doc_vectors = embedder.encode(docs)
dimension = doc_vectors.shape[1]
index = faiss.IndexFlatL2(dimension)
index.add(np.array(doc_vectors))
# 4. 用户提问
query = "年假有多少天?"
query_vec = embedder.encode([query])
# 5. 检索最相关片段
D, I = index.search(query_vec, k=1) # 找最相似的1个
retrieved_doc = docs[I[0][0]]
# 6. 调用 DeepSeek 生成答案(伪代码)
prompt = f"根据以下信息回答问题:nn{retrieved_doc}nn问题:{query}"
answer = call_deepseek_api(prompt) # 替换为实际API调用
print(answer)
大模型不是万能的,但 RAG 让它变得可靠、专业、可落地。 无论你是想搭建企业知识库、做智能客服,还是仅仅想让 AI 帮你读文档,RAG 都是你必须掌握的第一步!