1天1个项目介绍|对话式RAG Agent
想做AI项目但不知道从哪入手?今天给大家推荐一个非常适合入门+简历包装的开源项目:Agentic RAG for Dummies。
这个项目是干嘛的?
简单说就是一个能对话、能检索、能自我纠错的智能问答 Agent。你给它喂一堆文档(比如 PDF),它就能根据文档内容跟你聊天,而且还会:
- 记住上下文,多轮对话不断片
- 遇到模糊问题会反问你,不瞎答
- 检索不到好结果会自动重试
- 复杂问题拆成小问题并行查,再汇总回答
技术栈:LangGraph + Qdrant向量库 + HuggingFace嵌入 + 支持Ollama/OpenAI/Claude多种LLM
怎么做?手把手教你
第一步:环境准备
git clone https://github.com/GiovanniPasq/agentic-rag-for-dummies.git
cd agentic-rag-for-dummies
pip install -r requirements.txt
本地跑的话装个 Ollama,拉个 qwen3 模型就行:
ollama pull qwen3:4b-instruct
第二步:准备你的文档
项目自带 PDF 转 Markdown 的 notebook,把你的资料丢进去就行。它会做分层索引——大块用来保留上下文,小块用来精准检索。
第三步:跑起来
打开 Jupyter Notebook,跟着 Learning Path 走一遍,核心流程就四步:
- 理解对话历史
- 改写/澄清用户问题
- 多 Agent 并行检索
- 汇总生成回答
整个架构用 LangGraph 编排,每个节点都是独立模块,想换 LLM 或者向量库都只需要改一行代码。
做完怎么包装到简历上?
这个项目包装空间很大,建议这样写:
项目名称:基于 LangGraph 的多 Agent RAG 智能问答系统
项目描述:
- 基于 LangGraph 实现多 Agent 协作的 RAG 系统,支持多轮对话、查询改写、自纠错检索
- 采用分层索引策略(Hierarchical Indexing),父子块分离实现精准检索与上下文保留的平衡
- 集成 Map-Reduce 模式,复杂查询自动拆解为并行子查询,提升回答准确率
- 接入 Langfuse 实现全链路可观测,监控 LLM 调用、工具使用和 Agent 执行流程
- 支持 Ollama 本地部署与 OpenAI/Claude 云端切换,LLM Provider 无关架构
技术关键词:LangGraph、RAG、Qdrant、HuggingFace Embeddings、Multi-Agent、Ollama
为什么推荐这个项目?
- 代码量适中:不像 LangChain 源码那么庞大,核心逻辑一个 notebook 就能看完
- 概念全面:RAG、Agent、多轮对话、自纠错、Map-Reduce 全覆盖,面试高频考点
- 可扩展:模块化设计,你可以加自己的功能(比如接入飞书、企微)
- 本地可跑:用 Ollama + 开源模型,不用花钱调 API
项目地址:https://github.com/GiovanniPasq/agentic-rag-for-dummies
有问题评论区交流,大家一起MARK起来!
#AI项目实战#
查看12道真题和解析
