【ai产品】1.基础模型概述:RAG
简单来说,就是为了解决大模型的幻觉问题,通过外置一个知识库,当请求相关知识时,优先在数据库中检索相关知识,并将相关知识放入数据库中。
具体的:外部输入数据、经过数据清洗、数据分割后,使用Embedding模型将数据向量化,当需要检索时,通过输入数据的向量与知识库向量做比较,选取欧式距离最近,余弦角度最小的,进行输出,并组合到prompt中。
prompt示例:
【任务描述】
假如你是一个专业的客服机器人,请参考【背景知识】,回答【问题】
【背景知识】
{数据检索得到的相关文本内容}
【问题】
石头扫地机器人P10的续航时间是多久?
具体的:外部输入数据、经过数据清洗、数据分割后,使用Embedding模型将数据向量化,当需要检索时,通过输入数据的向量与知识库向量做比较,选取欧式距离最近,余弦角度最小的,进行输出,并组合到prompt中。
prompt示例:
【任务描述】
假如你是一个专业的客服机器人,请参考【背景知识】,回答【问题】
【背景知识】
{数据检索得到的相关文本内容}
【问题】
石头扫地机器人P10的续航时间是多久?
全部评论
解决模型幻觉只是大模型-RAG中的一环哦,更重要的是构建专用领域的模型,提供垂直的上下文知识哦
相关推荐
点赞 评论 收藏
分享
点赞 评论 收藏
分享
2025-12-24 15:05
门头沟学院 Python
牛客60944174...:数据源会是多源,多数据格式(包括多模态、结构化、JSON,graph等),怎么把数据进行加载清洗处理,得到合适的数据,如果一篇文章很长,怎么做分块,是直接分块,还是重叠的分,为什么这个场景要这样,有没有更好的分块或者压缩方法。在召回阶段,你的query要怎么重构,例如用户问题是“这个是什么?”这样就是语义很不清晰的,要怎么把query重构成一个语义清晰的问句,才能在查找的时候提高命中率,以及你算完相似度之后重排和召回有没有什么优化,是直接根据向量相似度排序吗?有没有别的重排参数,这些都可以优化。除此外,你的RAG应该是每次调用LLM都用一次的吧,你能不能针对每一个场景写一个表,然后分别打包成MCP,让LLM自己决定要不要用RAG,用哪个RAG,怎么用RAG,这些都可以深挖,除此外,基于向量数据库的RAG有标准流程,你可以对照每个阶段,都做一些工作。希望我的分享对你有帮助。 点赞 评论 收藏
分享
