https://www.bilibili.com/video/BV1QA4m1F7t4/?vd_source=902e3124d4683c41b103f1d1322401fa
RAG(Retrieval Augmented Generation)是一种结合了检索(Retrieval)和生成(Generation)的技术,旨在通过利用外部知识库来增强大预言模型的性能。它通过检索用户输入相关的信息片段,并结合这些信息来生成更准确、更丰富的回答。简而言之,RAG=搜索引擎+大模型

Naive RAG→Advanced RAG→Modular RAG


| RAG | 微调 | |
|---|---|---|
| 简介 | 非参数记忆;能够处理知识密集型任务;可以生成多样化内容 | 参数记忆;微调需要大量标注数据;可能存在过拟合 |
| 适用场景 | 适合信息更新较快的任务 | 适合高度专业化的任务 |
| 优势 | 动态知识更新,能处理长尾知识 | 可以针对特定任务优化 |
| 局限 | 依赖外部知识库的质量和大模型的能力 | 需要大量标注数据,不能很好适应新任务 |


茴香豆是一个基于LLMs的领域知识助手,俗称豆哥。可以用作智能客服,或在即时通讯工具(IM),如微信群中高效解答问题

知识库+前端+后端大模型+豆哥

(1)环境准备
从官方环境复制运行 InternLM 的基础环境

(2)安装茴香豆


(3)搭建RAG助手
增加茴香豆相关的问题到接受问题示例中
创建向量数据库


运行RAG知识助手



除了一个问题以外,其余两个都没有回答!!!
单独提问也无法正常回答:
