CN-11
大语言模型技术实践 / RAGRAG 通过先检索企业知识库中的相关片段,再把证据注入上下文,减少模型凭记忆编造答案的空间。关键是召回覆盖、重排序精度和生成阶段的引用约束。
调整切分、向量模型、索引、召回、重排序、查询改写和 Top-K,实时查看召回片段、指标、回答质量和耗时。
调整每个阶段,观察模拟检索质量如何变化。
中文 · 林知远,企业智能平台架构师
一篇中文技术文章,涵盖预训练、指令微调、RAG、工具调用、幻觉控制、评估与企业落地。
准确率@K
召回率@K
MRR
nDCG
分数和相关性会随参数组合实时变化。
RAG 通过先检索企业知识库中的相关片段,再把证据注入上下文,减少模型凭记忆编造答案的空间。关键是召回覆盖、重排序精度和生成阶段的引用约束。
中文知识库常见专有名词、缩写和业务编号。单纯向量检索容易漏掉精确术语,因此生产系统通常把 BM25 与向量召回融合,再用中文重排序模型筛选证据。
企业 LLM 评估应拆分为检索召回率、上下文相关性、答案忠实度、用户满意度和单位成本,避免只看一次性人工打分。
指令微调提升模型遵循任务格式的能力,但不能替代知识更新。高频变化的政策、库存和工单信息更适合通过 RAG 注入。
基于最相关召回片段生成的有证据回答。
大语言模型技术实践 · 1,750 字