🚀 安装指南

前置要求

• Python 3.10+ • Git • Docker (可选,用于 Docker 部署)

原生安装

  1. 克隆仓库:

    1. # Linux/MacOS
    2. git clone https://github.com/HKUDS/LightRAG.git
    3. cd LightRAG
    1. # Windows PowerShell
    2. git clone https://github.com/HKUDS/LightRAG.git
    3. cd LightRAG
  2. 配置环境:

    1. # Linux/MacOS
    2. cp .env.example .env
    3. # 使用文本编辑器修改 .env 文件
    1. # Windows PowerShell
    2. Copy-Item .env.example .env
    3. # 使用文本编辑器修改 .env 文件
  3. 创建并激活虚拟环境:

    1. # Linux/MacOS
    2. python -m venv venv
    3. source venv/bin/activate
    1. # Windows PowerShell
    2. python -m venv venv
    3. .\venv\Scripts\Activate
  4. 安装依赖:

    1. # 全平台通用
    2. pip install -r requirements.txt

🐳 Docker 部署

以下 Docker 命令适用于已安装 Docker Desktop 的全平台:

  1. 构建并启动容器:
    1. docker-compose up -d

配置选项

通过修改 .env 文件中的环境变量配置 LightRAG:

服务器配置

HOST: 服务器地址 (默认: 0.0.0.0) • PORT: 服务端口 (默认: 9621)

LLM 配置

LLM_BINDING: 使用的 LLM 后端 (lollms/ollama/openai) • LLM_BINDING_HOST: LLM 服务器地址 • LLM_MODEL: 使用的模型名称

嵌入模型配置

EMBEDDING_BINDING: 嵌入模型后端 (lollms/ollama/openai) • EMBEDDING_BINDING_HOST: 嵌入模型服务器地址 • EMBEDDING_MODEL: 嵌入模型名称

RAG 配置

MAX_ASYNC: 最大并发操作数 • MAX_TOKENS: 最大 token 数 • EMBEDDING_DIM: 嵌入向量维度 • MAX_EMBED_TOKENS: 最大嵌入 token 数

安全配置

LIGHTRAG_API_KEY: API 访问密钥

数据存储路径

系统使用以下目录结构存储数据:

  1. data/
  2. ├── rag_storage/ # RAG 持久化数据
  3. └── inputs/ # 输入文档

部署示例

  1. 使用 Ollama:
    1. LLM_BINDING=ollama
    2. LLM_BINDING_HOST=http://host.docker.internal:11434
    3. LLM_MODEL=mistral
    4. EMBEDDING_BINDING=ollama
    5. EMBEDDING_BINDING_HOST=http://host.docker.internal:11434
    6. EMBEDDING_MODEL=bge-m3

注意:Docker 容器内需使用 host.docker.internal 访问宿主机服务,该配置已包含在 docker-compose 文件中。

  1. 使用 OpenAI:
    1. LLM_BINDING=openai
    2. LLM_MODEL=gpt-3.5-turbo
    3. EMBEDDING_BINDING=openai
    4. EMBEDDING_MODEL=text-embedding-ada-002
    5. OPENAI_API_KEY=your-api-key

API 使用

部署完成后,可通过 http://localhost:9621 访问 API

使用 PowerShell 查询示例:

  1. $headers = @{
  2. "X-API-Key" = "your-api-key"
  3. "Content-Type" = "application/json"
  4. }
  5. $body = @{
  6. query = "your question here"
  7. } | ConvertTo-Json
  8. Invoke-RestMethod -Uri "http://localhost:9621/query" -Method Post -Headers $headers -Body $body

使用 curl 查询示例:

  1. curl -X POST "http://localhost:9621/query" \
  2. -H "X-API-Key: your-api-key" \
  3. -H "Content-Type: application/json" \
  4. -d '{"query": "your question here"}'

🔒 安全注意事项

重要安全建议:

  1. 生产环境务必设置高强度 API 密钥
  2. 生产环境启用 SSL 加密
  3. 配置适当的网络访问策略

📦 更新方法

更新 Docker 容器:

  1. docker-compose pull
  2. docker-compose up -d --build

更新原生安装:

  1. # Linux/MacOS
  2. git pull
  3. source venv/bin/activate
  4. pip install -r requirements.txt
  1. # Windows PowerShell
  2. git pull
  3. .\venv\Scripts\Activate
  4. pip install -r requirements.txt