LightRAG:简单高效的检索增强生成系统深度解析

2024-5-08-1.png

LightRAG:简单高效的检索增强生成系统深度解析

一、项目概述与背景

1.1 项目简介

LightRAG(Lightweight Retrieval-Augmented Generation)是由香港大学数据科学与工程实验室(HKUDS)开发的一款简单且高效的检索增强生成系统。该项目于2024年底发布,并被接受为EMNLP 2025会议论文,标志着其在学术界获得了高度认可。

GitHub地址https://github.com/HKUDS/LightRAG

核心特性

  • 轻量级设计,易于部署和使用
  • 支持多种大语言模型(LLM)集成
  • 知识图谱增强的检索机制
  • 支持多种向量数据库和图数据库后端
  • 提供Web UI和REST API支持

当前Star数:约7,200+(持续增长中)

今日新增Star:116+

1.2 背景与动机

检索增强生成(Retrieval-Augmented Generation,RAG)是当前大语言模型应用领域最重要的技术范式之一。传统的RAG系统虽然能够有效缓解大语言模型的幻觉问题,但在实际应用中面临着诸多挑战:

  1. 检索效率与质量的平衡:传统向量检索往往难以捕获文档之间的复杂语义关系
  2. 知识整合能力不足:简单的文本块检索无法有效利用文档的结构化信息
  3. 系统复杂度高:企业级RAG系统需要集成多种组件,部署和维护成本较高
  4. 扩展性受限:随着数据量增长,传统方案的检索性能往往会显著下降

LightRAG针对上述问题提出了创新性的解决方案,通过引入基于知识图谱的检索机制,实现了高效、准确且可扩展的检索增强生成能力。

1.3 学术贡献

LightRAG的核心创新在于其图-文本双层检索架构,该架构能够同时利用知识图谱的结构化信息和原始文本的语义信息,显著提升了检索的全面性和准确性。该工作已被EMNLP 2025接收,证明了其在学术研究中的重要价值。


二、核心功能与技术架构详解

2.1 系统架构概览

LightRAG采用模块化设计,主要包含以下核心组件:

┌─────────────────────────────────────────────────────────────┐
│                      LightRAG 系统架构                       │
├─────────────────────────────────────────────────────────────┤
│  ┌─────────────┐    ┌─────────────┐    ┌─────────────┐     │
│  │  文档输入   │───▶│  索引模块   │───▶│  存储模块   │     │
│  │ (Documents) │    │ (Indexing)  │    │ (Storage)   │     │
│  └─────────────┘    └─────────────┘    └─────────────┘     │
│         │                                      │              │
│         ▼                                      ▼              │
│  ┌─────────────┐                       ┌─────────────┐       │
│  │ 文本分块    │                       │ 知识图谱    │       │
│  │(Chunking)   │                       │ (Knowledge  │       │
│  └─────────────┘                       │   Graph)    │       │
│         │                              └─────────────┘       │
│         ▼                                      │              │
│  ┌─────────────┐                       ┌─────────────┐       │
│  │ 实体关系    │◀─────────────────────▶│ 混合检索    │       │
│  │ 提取        │     (Entity-Relation  │ (Hybrid     │       │
│  │(Entity-     │      Extraction)     │  Retrieval) │       │
│  │ Relation)   │                       └─────────────┘       │
│  └─────────────┘                             │                │
│                                             ▼                │
│                                    ┌─────────────┐             │
│                                    │  LLM 生成   │             │
│                                    │(Generation) │             │
│                                    └─────────────┘             │
└─────────────────────────────────────────────────────────────┘

2.2 索引流程详解

LightRAG的索引流程是其核心竞争力的来源,整个流程包含以下关键步骤:

2.2.1 文档预处理与分块

# LightRAG 支持的文档分块配置
chunk_token_size = 1200          # 每个块的token数量
chunk_overlap_token_size = 100   # 块之间的重叠token数

文档分块是RAG系统的基础,LightRAG采用基于token的重叠分块策略,确保相邻块之间有足够的上下文重叠,这对于保持检索结果的连贯性至关重要。

2.2.2 实体与关系提取

这是LightRAG最具创新性的环节。系统使用大语言模型从文本块中自动提取:

  • 实体(Entities):文本中提到的主要对象、概念、人物等
  • 关系(Relations):实体之间的语义关联
  • 实体类型(Entity Types):组织、人员、地点、事件等
# 实体提取配置示例
addon_params = {
    "language": "Simplified Chinese",
    "entity_types": ["organization", "person", "location", "event"]
}

2.2.3 知识图谱构建

提取的实体和关系被用于构建动态知识图谱:

┌──────────────┐         ┌──────────────┐
│   Entity A   │────────▶│   Entity B   │
│   (人物)     │         │   (组织)     │
└──────────────┘         └──────────────┘
       │                        │
       │         ┌──────────────┐
       └────────▶│   Entity C   │
                 │   (地点)     │
                 └──────────────┘

这个知识图谱不仅存储了实体,还保存了它们之间的复杂关系,使得系统能够进行更深层次的语义推理。

2.2.4 向量嵌入与存储

LightRAG支持多种向量嵌入模型:

嵌入模型维度最大Token数特点
BAAI/bge-m310248192多语言支持
text-embedding-3-large30728192高精度
sentence-transformers可配置可配置本地部署

同时支持多种向量数据库后端:

  • NanoVectorDBStorage(默认,轻量级)
  • PGVectorStorage(PostgreSQL扩展)
  • MilvusVectorDBStorage
  • ChromaVectorDBStorage
  • FaissVectorDBStorage
  • MongoVectorDBStorage
  • QdrantVectorDBStorage
  • OpenSearchVectorDBStorage

2.3 检索机制深度解析

LightRAG提供了多种检索模式,能够适应不同的查询需求:

2.3.1 本地检索(Local Mode)

本地检索专注于上下文相关的信息,特别适合需要理解查询上下文的任务:

# 本地检索示例
result = await rag.aquery(
    "这个故事中主角的情感变化如何?",
    param=QueryParam(mode="local")
)

本地检索的工作流程:

  1. 分析查询意图,识别关键实体
  2. 在知识图谱中定位相关实体节点
  3. 检索与这些实体直接相关的文本块
  4. 返回高度相关但范围相对有限的上下文

2.3.2 全局检索(Global Mode)

全局检索利用全局知识,适合需要广泛背景信息的查询:

# 全局检索示例
result = await rag.aquery(
    "这部小说的主要主题是什么?",
    param=QueryParam(mode="global")
)

全局检索的优势:

  1. 不局限于特定实体,而是遍历整个知识图谱
  2. 能够捕获跨文档的全局模式和主题
  3. 适合探索性查询和综述类问题

2.3.3 混合检索(Hybrid Mode)

混合检索结合了本地和全局检索的优势:

# 混合检索示例
result = await rag.aquery(
    "分析这本书中的主要人物关系",
    param=QueryParam(mode="hybrid")
)

混合检索的特点

  • 同时进行本地和全局检索
  • 对结果进行综合排序
  • 平衡深度和广度

2.3.4 混合模式(Mix Mode)

Mix模式是LightRAG的最新特性,集成了知识图谱和向量检索的优势:

# Mix模式示例(推荐作为默认模式)
result = await rag.aquery(
    "详细分析这个技术方案的实现细节",
    param=QueryParam(mode="mix")
)

2.3.5 朴素检索(Naive Mode)

基础的向量检索,不使用知识图谱增强:

# 朴素检索示例
result = await rag.aquery(
    "简单的关键词搜索",
    param=QueryParam(mode="naive")
)

2.4 存储后端支持

LightRAG支持灵活的数据存储配置,能够适应不同的部署场景:

2.4.1 键值存储(KV Storage)

存储类型特点适用场景
JsonKVStorage轻量,易于调试开发/测试
PGKVStoragePostgreSQL,企业级生产环境
RedisKVStorage高性能,分布式高并发场景
MongoKVStorage文档型,灵活多样化数据结构
OpenSearchKVStorage全文搜索能力强大规模搜索

2.4.2 图存储(Graph Storage)

存储类型特点适用场景
NetworkXStoragePython原生,易用开发/小规模
Neo4JStorage专业图数据库复杂关系分析
PGGraphStoragePostgreSQL扩展统一数据管理
AGEStoragePostgreSQL图扩展兼容Apache AGE
OpenSearchGraphStorage大规模图查询分布式场景

2.4.3 文档状态存储

用于跟踪文档处理状态:

  • JsonDocStatusStorage(默认)
  • PGDocStatusStorage
  • MongoDocStatusStorage
  • OpenSearchDocStatusStorage

三、代码示例与使用教程

3.1 快速开始

3.1.1 环境准备

首先安装LightRAG:

# 使用uv安装(推荐)
uv pip install lightrag-hku

# 或使用pip
pip install lightrag-hku

# 完整安装(含API支持)
uv tool install "lightrag-hku[api]"

3.1.2 基础使用示例

import os
import asyncio
from lightrag import LightRAG, QueryParam
from lightrag.llm.openai import gpt_4o_mini_complete, openai_embed
from lightrag.utils import setup_logger

# 设置日志
setup_logger("lightrag", level="INFO")

# 设置工作目录
WORKING_DIR = "./rag_storage"
if not os.path.exists(WORKING_DIR):
    os.mkdir(WORKING_DIR)

async def initialize_rag():
    """初始化LightRAG实例"""
    rag = LightRAG(
        working_dir=WORKING_DIR,
        embedding_func=openai_embed,      # 嵌入函数
        llm_model_func=gpt_4o_mini_complete,  # LLM函数
    )
    # 重要:必须初始化存储后端
    await rag.initialize_storages()
    return rag

async def main():
    # 初始化
    rag = await initialize_rag()
    
    # 插入文档
    await rag.ainsert("""
    人工智能是计算机科学的一个分支,致力于开发能够执行通常需要人类智能的任务的系统。
    这包括视觉感知、语音识别、决策制定和语言翻译等。机器学习是人工智能的一个子集,
    它使系统能够从数据中学习和改进,而无需明确编程。深度学习是机器学习的一个分支,
    使用多层神经网络来模拟人脑的工作方式。
    """)
    
    # 执行混合搜索查询
    result = await rag.aquery(
        "什么是人工智能和机器学习?",
        param=QueryParam(mode="hybrid")
    )
    
    print(result)
    
    # 关闭连接
    await rag.finalize_storages()

if __name__ == "__main__":
    asyncio.run(main())

3.2 使用自定义模型

3.2.1 使用Ollama模型

import os
import numpy as np
from lightrag import LightRAG
from lightrag.llm.ollama import ollama_model_complete, ollama_embed

# 配置Ollama
OLLAMA_BASE_URL = "http://localhost:11434"
MODEL_NAME = "qwen2.5:7b"

async def main():
    rag = LightRAG(
        working_dir="./rag_storage",
        llm_model_func=ollama_model_complete,
        embedding_func=ollama_embed,
    )
    
    await rag.initialize_storages()
    
    # 后续操作...

3.2.2 使用自定义API

import os
import numpy as np
from lightrag import LightRAG
from lightrag.utils import wrap_embedding_func_with_attrs
from lightrag.llm.openai import openai_complete_if_cache, openai_embed

# 使用自定义API提供商
async def llm_model_func(prompt, system_prompt=None, history_messages=[], **kwargs):
    return await openai_complete_if_cache(
        "solar-mini",
        prompt,
        system_prompt=system_prompt,
        history_messages=history_messages,
        api_key=os.getenv("UPSTAGE_API_KEY"),
        base_url="https://api.upstage.ai/v1/solar",
        **kwargs
    )

@wrap_embedding_func_with_attrs(
    embedding_dim=4096, 
    max_token_size=8192, 
    model_name="solar-embedding-1-large-query"
)
async def embedding_func(texts: list[str]) -> np.ndarray:
    return await openai_embed.func(
        texts,
        model="solar-embedding-1-large-query",
        api_key=os.getenv("UPSTAGE_API_KEY"),
        base_url="https://api.upstage.ai/v1/solar"
    )

# 使用自定义模型初始化
rag = LightRAG(
    working_dir="./rag_storage",
    llm_model_func=llm_model_func,
    embedding_func=embedding_func
)

3.3 高级配置

3.3.1 使用PostgreSQL存储

from lightrag import LightRAG
from lightrag.llm import gpt_4o_mini_complete, openai_embed

# 配置PostgreSQL连接
POSTGRES_URI = "postgresql://user:password@localhost:5432/lightrag"

rag = LightRAG(
    working_dir="./rag_storage",
    kv_storage="PGKVStorage",
    vector_storage="PGVectorStorage",
    graph_storage="PGGraphStorage",
    doc_status_storage="PGDocStatusStorage",
    # PostgreSQL特定的连接参数
    vector_db_storage_cls_kwargs={
        "connection_string": POSTGRES_URI,
        "vector_dimension": 1536,
    },
    llm_model_func=gpt_4o_mini_complete,
    embedding_func=openai_embed,
)

await rag.initialize_storages()

3.3.2 使用Neo4J图数据库

rag = LightRAG(
    working_dir="./rag_storage",
    graph_storage="Neo4JStorage",
    # Neo4J连接配置
    kv_storage="JsonKVStorage",
    vector_storage="NanoVectorDBStorage",
    neo4j_uri="bolt://localhost:7687",
    neo4j_username="neo4j",
    neo4j_password="password",
    llm_model_func=gpt_4o_mini_complete,
    embedding_func=openai_embed,
)

3.4 使用LightRAG Server

LightRAG提供了完整的Web UI和API服务器:

# 安装服务器版本
uv tool install "lightrag-hku[api]"

# 复制环境配置模板
cp env.example .env

# 编辑.env文件配置LLM和嵌入模型

# 启动服务器
lightrag-server

服务器启动后提供:

3.5 性能优化配置

3.5.1 调整检索参数

from lightrag import QueryParam

# 高精度检索配置
result = await rag.aquery(
    "需要详细分析的内容",
    param=QueryParam(
        mode="hybrid",       # 使用混合模式
        top_k=60,            # 检索更多结果
        chunk_top_k=30,      # 重排序后保留更多块
        max_entity_tokens=6000,   # 实体上下文上限
        max_relation_tokens=8000, # 关系上下文上限
        max_total_tokens=30000,   # 总token预算
        enable_rerank=True,        # 启用重排序
    )
)

3.5.2 配置缓存

rag = LightRAG(
    working_dir="./rag_storage",
    enable_llm_cache=True,  # 启用LLM响应缓存
    enable_llm_cache_for_entity_extract=True,  # 实体提取缓存
    embedding_cache_config={
        "enabled": True,
        "similarity_threshold": 0.95,
        "use_llm_check": False,
    },
    llm_model_func=gpt_4o_mini_complete,
    embedding_func=openai_embed,
)

四、技术亮点与创新点分析

4.1 知识图谱增强的检索

LightRAG的核心创新在于将知识图谱与向量检索完美结合。传统的RAG系统仅依赖向量相似度进行检索,而LightRAG在索引阶段就利用大语言模型提取文档中的实体和关系,构建知识图谱。

这种设计的优势

  1. 语义理解更深层:知识图谱能够表达实体之间的复杂关系,而不仅仅是文本相似度
  2. 检索结果更全面:通过图谱遍历,可以发现向量检索可能遗漏的相关内容
  3. 支持推理查询:基于图谱结构,系统可以回答需要推理的复杂问题
  4. 可解释性更强:检索结果可以追溯到具体的实体和关系

4.2 灵活的多模式检索

LightRAG提供了六种检索模式(local/global/hybrid/naive/mix/bypass),每种模式都有其适用场景:

模式优势适用场景
Local深度上下文理解具体细节查询
Global广泛知识覆盖主题综述
Hybrid平衡深度广度综合分析
Naive简单快速简单问答
MixKG+向量融合复杂研究任务
Bypass绕过检索LLM直接生成

4.3 强大的多后端支持

LightRAG支持几乎所有主流的向量数据库和图数据库,这种设计使得:

  1. 渐进式部署:从轻量级的JSON文件存储开始,逐步升级到企业级数据库
  2. 云原生友好:支持OpenSearch、Qdrant等云原生数据库
  3. 成本优化:可以根据数据规模和预算选择合适的存储方案

4.4 完整的生态系统

LightRAG不仅仅是一个库,而是一个完整的生态系统:

  1. LightRAG Server:提供Web UI和REST API
  2. Docker支持:一键部署,无需复杂配置
  3. 交互式配置向导:简化环境配置过程
  4. 离线部署支持:适用于安全要求高的环境
  5. 多模态扩展:通过RAG-Anything支持PDF、图片、Office文档等

4.5 持续迭代与更新

从发布至今,LightRAG保持着快速迭代:

  • 2025.11:集成RAGAS评估和Langfuse追踪
  • 2025.10:消除处理瓶颈,支持大规模数据集
  • 2025.09:增强知识图谱提取准确性
  • 2025.08:支持Reranker和文档删除功能
  • 2025.06:发布RAG-Anything多模态RAG系统
  • 2025.03:支持引用功能
  • 2025.02:支持MongoDB和PostgreSQL存储
  • 2025.01:发布VideoRAG和MiniRAG
  • 2024.11:发布WebUI和Neo4J支持

五、应用场景与案例

5.1 企业知识管理

场景描述:企业需要构建内部知识库,员工可以快速查询公司文档、政策、流程等信息。

LightRAG方案

# 构建企业知识库
await rag.ainsert("""
公司年假政策:
1. 员工每年享有15天带薪年假
2. 工作满3年增加3天
3. 工作满5年再增加2天
年假需提前一周申请,经部门经理批准后生效
""")

await rag.ainsert("""
报销制度:
1. 差旅费用需在返回后一周内报销
2. 餐饮费每天最高200元
3. 住宿费需提供发票,实报实销
""")

# 查询年假政策
result = await rag.aquery("我工作满4年,每年有多少天年假?")

优势

  • 支持多种文档格式的导入
  • 知识图谱能够捕获政策之间的关系
  • 支持自然语言查询,无需学习复杂语法

5.2 智能客服系统

场景描述:构建能够回答产品使用、技术支持等问题的智能客服。

LightRAG方案

# 导入产品文档
product_docs = load_product_documents("./docs")
await rag.ainsert(product_docs)

# 处理客户咨询
async def handle_customer_query(question: str):
    result = await rag.aquery(
        question,
        param=QueryParam(
            mode="hybrid",
            response_type="Single Paragraph"
        )
    )
    return result

优势

  • 准确理解客户问题意图
  • 基于真实文档生成答案,避免幻觉
  • 支持上下文对话

5.3 学术研究辅助

场景描述:研究人员需要快速了解某个领域的最新进展和相关论文。

LightRAG方案

# 导入arXiv论文摘要
papers = download_arxiv_papers("machine learning", limit=100)
await rag.ainsert(papers)

# 研究问答
result = await rag.aquery(
    "Transformer架构在自然语言处理中的最新应用有哪些?",
    param=QueryParam(mode="global")
)

优势

  • 跨文档综合分析能力
  • 支持深度研究问题的回答
  • 可追溯引用来源

5.4 法律文档分析

场景描述:律师需要快速检索相关判例和法规。

LightRAG方案

# 导入法律文档
laws = parse_legal_documents("./legal_corpus")
await rag.ainsert(laws)

# 法律咨询
result = await rag.aquery(
    "根据最新民法典,合同违约的赔偿标准是什么?",
    param=QueryParam(
        mode="hybrid",
        only_need_context=True  # 只获取相关上下文
    )
)

优势

  • 精准定位相关法条
  • 理解法律概念之间的关系
  • 支持详细引用

5.5 多模态文档处理

通过RAG-Anything集成,LightRAG支持处理多种格式的文档:

# 导入PDF、图片、Office文档
await rag.ainsert("./document.pdf")
await rag.ainsert("./presentation.pptx")
await rag.ainsert("./report.xlsx")
await rag.ainsert("./image_with_text.png")

# 查询
result = await rag.aquery("这份报告中关于财务表现的主要结论是什么?")

六、与同类项目的对比

6.1 主流RAG框架对比

特性LightRAGLangChain RAGLlamaIndexRAGFlow
知识图谱增强✅ 原生支持需集成部分支持✅ 支持
多模式检索✅ 6种模式有限中等有限
图数据库支持5种需集成2种1种
向量数据库8种+需集成10种+5种
Web UI✅ 内置需额外配置有限✅ 完整
Docker支持✅ 支持需自行配置有限✅ 支持
多模态支持✅ RAG-Anything需集成部分支持✅ 支持
开源协议MITApache 2.0Apache 2.0Apache 2.0

6.2 性能对比

根据公开的基准测试数据,LightRAG在多个指标上表现优异:

检索质量

  • 在复杂查询场景下,LightRAG的混合检索模式比传统向量检索提升约20-30%的准确率
  • 知识图谱增强使得跨文档关系推理能力显著提升

响应速度

  • 轻量级设计,索引速度比同类产品快2-3倍
  • 缓存机制有效减少重复查询的延迟

扩展性

  • 支持大规模数据集处理(已测试百万级文档)
  • 分布式部署能力

6.3 易用性对比

维度LightRAGLangChainLlamaIndex
学习曲线较平缓较陡中等
文档完善度⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐
示例代码丰富丰富丰富
社区支持活跃非常活跃活跃
部署简便性⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐⭐

6.4 选择建议

选择LightRAG的场景

  • 需要知识图谱增强的深度检索
  • 需要多种检索模式切换
  • 需要完整的Web UI和API
  • 需要灵活的存储后端选择
  • 需要多模态文档处理能力

选择LangChain的场景

  • 需要构建复杂的AI应用流水线
  • 需要与其他AI工具深度集成
  • 团队已经熟悉LangChain生态

选择LlamaIndex的场景

  • 需要强大的索引优化能力
  • 需要细粒度的数据处理控制
  • 需要丰富的评估工具

七、社区活跃度与发展趋势

7.1 社区现状

GitHub统计

  • Star数:7,200+
  • Fork数:550+
  • 贡献者:50+
  • Issue处理:活跃

社区渠道

7.2 更新频率

LightRAG保持着极高的更新频率,几乎每月都有新功能发布:

2025年更新timeline:
├── 11月:RAGAS评估集成、Langfuse追踪
├── 10月:大规模数据集处理优化
├── 09月:知识图谱提取准确性增强
├── 08月:Reranker支持、文档删除功能
├── 07月:性能优化
├── 06月:RAG-Anything多模态发布
├── 05月:bug修复和稳定性提升
├── 04月:新功能开发
├── 03月:引用功能发布
├── 02月:MongoDB/PostgreSQL支持
└── 01月:VideoRAG、MiniRAG发布

7.3 学术影响

LightRAG已被EMNLP 2025接收,标志着学术界对其创新性的认可。该论文提出了图-文本双层检索架构,为RAG领域的研究提供了新的思路。

相关论文

7.4 发展趋势

近期发展方向

  1. 更强的推理能力:通过改进知识图谱结构,提升复杂问题的推理能力
  2. 更广的模态支持:深化多模态RAG的能力,支持更多文档类型
  3. 更智能的检索:引入更先进的重排序和查询改写技术
  4. 更好的性能:优化大规模数据处理能力

长期愿景

  • 成为企业级RAG的首选解决方案
  • 推动RAG技术的标准化
  • 构建完整的AI应用开发生态

八、总结与展望

8.1 核心价值总结

LightRAG作为一款开源的检索增强生成系统,凭借其独特的设计理念和卓越的技术实现,为AI应用开发提供了新的选择:

技术创新

  • 知识图谱原生的检索增强机制
  • 灵活的多模式检索架构
  • 完整的端到端解决方案

工程实践

  • 模块化设计,易于扩展
  • 丰富的存储后端支持
  • 完善的部署方案

用户体验

  • 简洁易用的API
  • 完整的Web UI
  • 详尽的文档和示例

8.2 使用建议

入门建议

  1. 从官方示例开始,理解核心概念
  2. 根据实际需求选择合适的存储后端
  3. 充分利用多模式检索,找到最佳配置

最佳实践

  1. 选择合适的LLM:至少32B参数,上下文至少32K
  2. 使用高质量嵌入模型:如BAAI/bge-m3
  3. 启用Reranker:显著提升检索质量
  4. 配置合适的缓存:减少API调用成本

注意事项

  1. 实体提取阶段对LLM要求较高,建议使用强模型
  2. 查询阶段可以使用比索引阶段更强的模型
  3. 不建议在索引阶段使用推理模型

8.3 未来展望

随着大语言模型技术的快速发展,检索增强生成的重要性日益凸显。LightRAG作为该领域的创新者,将继续引领技术发展方向:

  1. 更智能的检索:引入更先进的AI技术,提升检索的准确性和效率
  2. 更广泛的集成:支持更多的模型和工具
  3. 更强大的功能:持续推出新特性,满足不断变化的需求

对于AI应用开发者而言,LightRAG是一个值得关注和尝试的优秀项目。无论是构建企业知识库、智能客服,还是学术研究辅助工具,LightRAG都能提供强大的支持。

立即体验


本文档基于LightRAG项目最新版本编写,版本信息截至2026年3月。

Comments