Skip to content

以下是关于 Dify 部署 的详细指南,包括 服务器要求部署步骤大模型选型建议


一、Dify 的部署方式

Dify 支持多种部署模式,适用于不同场景:

部署方式适用场景复杂度推荐用户
Docker Compose快速本地测试或小型生产环境⭐⭐个人开发者/小团队
Kubernetes企业级高可用部署⭐⭐⭐⭐中大型企业
云服务一键部署AWS/Azure/GCP 快速启动⭐⭐云服务用户
裸机安装深度定制化需求⭐⭐⭐高级用户

二、服务器最低要求

1. 基础配置(测试/小型应用)

  • CPU: 4 核 (x86-64)
  • 内存: 8 GB(纯文本应用)→ 16 GB(含 RAG 知识库)
  • 存储: 50 GB SSD(模型文件需额外空间)
  • 网络: 公网 IP(如需对外服务)
  • 操作系统: Linux (Ubuntu 22.04/CentOS 7+)

2. 生产环境建议

  • CPU: 8 核+
  • 内存: 32 GB+(大型知识库需 64 GB)
  • GPU: 如需本地运行大模型(如 Llama 2-13B),需至少 1×NVIDIA A10G(24GB 显存)
  • 存储: 200 GB+ NVMe SSD(向量数据库占用大)

📌 注意

  • 如果仅调用云端 API(如 OpenAI/GPT-4),无需高配置服务器。
  • 本地运行模型时,显存要求:7B 模型需 12GB+,13B 模型需 24GB+

三、详细部署步骤(以 Docker Compose 为例)

1. 前置准备

bash
# 安装 Docker 和 Docker Compose
sudo apt-get update && sudo apt-get install -y docker.io docker-compose
sudo systemctl start docker
# 安装 Docker 和 Docker Compose
sudo apt-get update && sudo apt-get install -y docker.io docker-compose
sudo systemctl start docker

2. 下载 Dify

bash
git clone https://github.com/langgenius/dify.git
cd dify/docker
git clone https://github.com/langgenius/dify.git
cd dify/docker

3. 配置环境变量

编辑 .env 文件:

ini
# 启用 OpenAI 兼容 API
OPENAI_API_KEY=sk-your-key  # 如调用 GPT-4
MODEL_PROVIDER=openai       # 或设置为 local(本地模型)

# 如需本地模型(示例:Llama 2)
LOCAL_MODEL=llama-2-13b-chat
VOLUME_PATH=/data/dify      # 数据持久化目录
# 启用 OpenAI 兼容 API
OPENAI_API_KEY=sk-your-key  # 如调用 GPT-4
MODEL_PROVIDER=openai       # 或设置为 local(本地模型)

# 如需本地模型(示例:Llama 2)
LOCAL_MODEL=llama-2-13b-chat
VOLUME_PATH=/data/dify      # 数据持久化目录

4. 启动服务

bash
docker-compose up -d
docker-compose up -d

访问 http://localhost:80 即可进入 Dify 控制台。


四、大模型选型建议

1. 云端 API 模型(无需本地计算资源)

模型适用场景成本/性能平衡
GPT-4-turbo高精度复杂任务$$$
Claude 3长文本分析$$
Mistral-7B开源替代,性价比高$

2. 本地部署模型(需 GPU)

模型显存要求适用场景
Llama 2-7B12GB通用问答/代码生成
Llama 2-13B24GB更高精度需求
ChatGLM3-6B16GB中文优化
Gemma-7B12GB轻量级英文任务

💡 选择建议

  • 优先云端 API:快速验证业务场景(如 GPT-4)。
  • 本地模型:数据敏感行业(金融/医疗)或长期成本优化。

五、关键配置优化

  1. 知识库检索性能

    • 使用 pgvector 替代默认 SQLite,提升 RAG 速度:
      yaml
      # docker-compose.yml 修改
      services:
        db:
          image: ankane/pgvector:v15
      # docker-compose.yml 修改
      services:
        db:
          image: ankane/pgvector:v15
  2. GPU 加速(本地模型)

    • docker-compose.yml 中为 worker 服务添加 GPU 支持:
      yaml
      deploy:
        resources:
          reservations:
            devices:
              - driver: nvidia
                count: 1
      deploy:
        resources:
          reservations:
            devices:
              - driver: nvidia
                count: 1
  3. 横向扩展

    • Kubernetes 部署时,通过 HPA 自动扩缩容 worker 节点。

六、常见问题

Q1: 部署后无法访问控制台?

  • 检查防火墙:sudo ufw allow 80/tcp
  • 查看日志:docker-compose logs -f web

Q2: 如何升级 Dify?

bash
cd dify/docker
git pull origin main
docker-compose down && docker-compose up -d --build
cd dify/docker
git pull origin main
docker-compose down && docker-compose up -d --build

Q3: 本地模型加载失败?

  • 确认显存足够,尝试更小模型(如 Llama-2-7B)。
  • 使用 vLLM 加速推理:
    ini
    # .env 文件
    INFERENCE_ENGINE=vllm
    # .env 文件
    INFERENCE_ENGINE=vllm

七、总结

  • 测试环境:4C8G + Docker Compose + GPT-4 API。
  • 生产环境:8C32G + Kubernetes + 本地 Llama 2-13B(需 GPU)。
  • 模型选择:优先云端 API 验证,再逐步迁移到本地优化成本。

通过 Dify 的灵活部署选项,无论是个人开发者还是企业团队,都能快速构建符合需求的 LLM 应用。