Intro

  1. RAG技术为大型语言模型提供外部知识,增强模型的响应能力。
  2. 通过嵌入模型将文本转化为向量,提升信息检索的效率。
  3. RAG允许模型在查询时快速整合相关文档信息,从而提升回答的准确性。

即使是稍微有点规模的方法也很快就会崩溃,原因在于大型语言模型的上下文窗口是有限的。那么什么是上下文窗口呢?上下文窗口是你在提示中可以给大型语言模型的单词或标记的数量,加上它作为回应输出的单词或标记的数量,而这些通常是有限的。

input- embedding- vector -retrieval - chunks- llm- response

GTc-JPBbsAA10WD

agentic RAG

Felo搜索-agentic RAG

Agentic Retrieval-Augmented Generation (Agentic RAG) 是一种创新的自然语言处理方法,结合了信息检索和生成模型的优势。它通过引入智能代理,进一步增强了传统RAG的功能。

https://x.com/llama_index/status/1809977874021232689

Implementing Agentic RAG using Langchain | by Plaban Nayak | The AI Forum | Medium

Building a Multi-Document ReAct Agent for Financial Analysis using LlamaIndex and Qdrant | by M K Pavan Kumar | Jun, 2024 | Stackademic

Advanced RAG on Hugging Face documentation using LangChain - Hugging Face Open-Source AI Cookbook

  • Building a multi-agent concierge system — LlamaIndex, Data Framework for LLM Applications

    There are also three “meta” agents: 还有三个“元”代理:

    1. A concierge agent: this agent is responsible for interacting with the user when they first arrive, letting them know what sort of tasks are available, and providing feedback when tasks are complete. 礼宾代理:该代理负责在用户首次到达时与用户进行交互,让他们知道可以执行哪些类型的任务,并在任务完成时提供反馈。
    2. An orchestration agent: this agent never provides output directly to the user. Instead, it looks at what the user is currently trying to accomplish, and responds with the plain-text name of the agent that should handle the task. The code then routes to that agent. 编排代理:该代理从不直接向用户提供输出。相反,它会查看用户当前正在尝试完成的任务,并以应处理该任务的代理的纯文本名称进行响应。然后代码路由到该代理。
    3. A continuation agent: it’s sometimes necessary to chain agents together to complete a task. For instance, to check your account balance, you need to be authenticated first. The authentication agent doesn’t know if you were simply trying to authenticate yourself or if it’s part of a chain, and it doesn’t need to. When the authentication agent completes, the continuation agent checks chat history to see what the original task was, and if there’s more to do, it formulates a new request to the orchestration agent to get you there without further user input. 连续代理:有时需要将代理链接在一起才能完成任务。例如,要检查您的帐户余额,您需要先进行身份验证。身份验证代理不知道您是否只是想对自己进行身份验证,或者它是否是链的一部分,而且它也不需要这样做。当身份验证代理完成时,延续代理会检查聊天历史记录以查看原始任务是什么,如果还有更多任务要做,它会向编排代理制定一个新请求,以便您无需进一步的用户输入即可完成任务。

Rank RAG

英伟达又在 RAG 领域整了个大活!🔥, RankRAG 来了!无需微调,利用基于 Llama3 的 Retrieve-Rerank-Generate 流程,在 9 个知识密集型基准测试中明显优于 GPT-4⚡️

整合 Rank 能力,高效选择召回的上下文,提高性能保持效率,适配不同的 Embedding 检索器

https://arxiv.org/abs/2407.02485

GraphRAG

微软开源的GraphRAG

Welcome to GraphRAG

microsoft/graphrag: A modular graph-based Retrieval-Augmented Generation (RAG) system

GraphRAG 是 RAG 领域可以造就下一个 Google 的技术!随着最近微软开源 GraphRAG 并将其带上热点顶峰,Neo4j 接着就发布《GraphRAG 宣言》!介绍了 GraphRAG 最全面的技术,包括学习教程,以及端到端的开源技术栈,同时 GraphRAG 在 43 个业务问题中准确性平均提高 3x

neo4j-labs/llm-graph-builder: Neo4j graph construction from unstructured data using LLMs

https://x.com/tuturetom/status/1811585264864886879

Sources

Tools

  • Overview - Quivr

    Quivr 是一个开源 RAG 框架,用于部署和使用人工智能助手

    欢迎访问 Quivr 文档!在这里,您可以找到有关协作软件开发的帮助、指导和支持。无论您是参与开源社区还是大型软件团队,这些资源都能让您快速上手!

    Quivr 是您的 “第二大脑”,可以充当您的私人助理。Quivr 是一个可以创建人工智能助手(简称 “大脑”)的平台。这些助手具有专门的设计能力。有些可以连接到特定的数据源,允许用户直接与数据交互。另一些则是由 Rag 技术驱动的特定用例专用工具。这些工具处理特定的输入,生成实用的输出,如摘要、翻译等。

  • vanna-ai/vanna: 🤖 Chat with your SQL database 📊. Accurate Text-to-SQL Generation via LLMs using RAG 🔄.

    Vanna.AI Documentation

    Vanna 是一个获得 MIT 许可的开源 Python RAG(检索增强生成)框架,用于 SQL 生成和相关功能。

  • RAG 2.0 新范式来了 !11.3 K Star 🌟 的RAGFlow 0.8 版本正式发布 Agentic Workflow,基于有环图为 RAG 引入带反思的 Agent 能力

    https://github.com/infiniflow/ragflow

    https://x.com/tuturetom/status/1810854169794039983

  • langgenius/dify: Dify is an open-source LLM app development platform.

    欢迎使用 Dify | Dify

    开源的扣子coze?

    LlamaIndex 最近几个月一直研究这个我觉得问题不大,他们一直都有学术实验范畴的探索性实践,这也是我很欣赏他们的一点,行业需要有能力的公司做这些探索。但如果一个纯商业化项目或者企业应用现阶段也搞这个方向,我个人认为就跑偏了。

    具体来讲,RAG 落地实践上的难是因为 1-开放域问答用户意图识别难;2-异构数据清洗难;3-索引和召回策略选择难;4-LLM 生成幻觉控制难等等,且每一层都需要按具体应用场景进行定制化的方案设计、还有算法和工程调优等一揽子工作。加入 Agent 之后上述问题一个都没解决,反而又额外引入一层难点。

    https://x.com/iarrp/status/1811466179636330621

  • 开源仅 1 天就斩获近万星!超越 RAG、让大模型拥有超强记忆力的 Mem0 火了

    与传统的 RAG 技术相比,Mem0 在实体关系理解、上下文连续性、自适应学习和动态更新信息等方面具有显著优势。Mem0 安装和使用简便,提供了易于操作的 API,适用于虚拟陪伴、生产力工具和 AI Agent 客户支持等多种 AI 应用场景。文章还介绍了 Mem0 的技术细节、应用案例以及与 RAG 的区别,并提供了一些简单的代码示例。

    https://github.com/mem0ai/mem0

  • Cohere

    Intro: 一个优化 prompt 的产品。Cohere Prompt Tuner 使用可定制的优化和评估循环来改进 LLM Prompt,基于 Google Deepmind 的论文 OPRO (Optimization by PROmpting) 方法,使用 LLM 驱动的评估结果来迭代优化 Prompts。

    Source: https://dashboard.cohere.com/prompt-tunerhttps://x.com/shao__meng/status/1818456618494734549https://baoyu.io/translations/cohere/intro-prompt-tuner

Others