1天1个项目介绍|对话式RAG Agent

想做AI项目但不知道从哪入手?今天给大家推荐一个非常适合入门+简历包装的开源项目:Agentic RAG for Dummies

这个项目是干嘛的?

简单说就是一个能对话、能检索、能自我纠错的智能问答 Agent。你给它喂一堆文档(比如 PDF),它就能根据文档内容跟你聊天,而且还会:

  • 记住上下文,多轮对话不断片
  • 遇到模糊问题会反问你,不瞎答
  • 检索不到好结果会自动重试
  • 复杂问题拆成小问题并行查,再汇总回答

技术栈:LangGraph + Qdrant向量库 + HuggingFace嵌入 + 支持Ollama/OpenAI/Claude多种LLM

怎么做?手把手教你

第一步:环境准备

git clone https://github.com/GiovanniPasq/agentic-rag-for-dummies.git
cd agentic-rag-for-dummies
pip install -r requirements.txt

本地跑的话装个 Ollama,拉个 qwen3 模型就行:

ollama pull qwen3:4b-instruct

第二步:准备你的文档

项目自带 PDF 转 Markdown 的 notebook,把你的资料丢进去就行。它会做分层索引——大块用来保留上下文,小块用来精准检索。

第三步:跑起来

打开 Jupyter Notebook,跟着 Learning Path 走一遍,核心流程就四步:

  1. 理解对话历史
  2. 改写/澄清用户问题
  3. 多 Agent 并行检索
  4. 汇总生成回答

整个架构用 LangGraph 编排,每个节点都是独立模块,想换 LLM 或者向量库都只需要改一行代码。

做完怎么包装到简历上?

这个项目包装空间很大,建议这样写:

项目名称:基于 LangGraph 的多 Agent RAG 智能问答系统

项目描述

  • 基于 LangGraph 实现多 Agent 协作的 RAG 系统,支持多轮对话、查询改写、自纠错检索
  • 采用分层索引策略(Hierarchical Indexing),父子块分离实现精准检索与上下文保留的平衡
  • 集成 Map-Reduce 模式,复杂查询自动拆解为并行子查询,提升回答准确率
  • 接入 Langfuse 实现全链路可观测,监控 LLM 调用、工具使用和 Agent 执行流程
  • 支持 Ollama 本地部署与 OpenAI/Claude 云端切换,LLM Provider 无关架构

技术关键词:LangGraph、RAG、Qdrant、HuggingFace Embeddings、Multi-Agent、Ollama

为什么推荐这个项目?

  1. 代码量适中:不像 LangChain 源码那么庞大,核心逻辑一个 notebook 就能看完
  2. 概念全面:RAG、Agent、多轮对话、自纠错、Map-Reduce 全覆盖,面试高频考点
  3. 可扩展:模块化设计,你可以加自己的功能(比如接入飞书、企微)
  4. 本地可跑:用 Ollama + 开源模型,不用花钱调 API

项目地址:https://github.com/GiovanniPasq/agentic-rag-for-dummies

有问题评论区交流,大家一起MARK起来!

#AI项目实战#
全部评论
可以的,很好呀
点赞 回复 分享
发布于 昨天 19:50 北京

相关推荐

评论
点赞
6
分享

创作者周榜

更多
牛客网
牛客网在线编程
牛客网题解
牛客企业服务