Dify 入门教程:从零开始搭建你的 AI 应用平台
Dify是一款开源的AI应用开发平台(LLMOps),支持可视化构建基于大语言模型(如GPT-4、Claude等)的应用。其核心功能包括Prompt工具、拖拽式工作流、API自动生成及多模型管理,无需编码即可快速开发AI助手。通过Docker部署后,用户能创建聊天应用、调试Prompt并一键生成可集成的REST API。相比Flowise和LangChain,Dify更注重低代码与快速落地,适合开
一、Dify 是什么?
Dify 是一个开源的 AI 应用开发平台(LLMOps 平台),它能帮助开发者快速构建、调试、部署和管理基于大语言模型(LLM)的应用。
简单来说,Dify 就是一个「可视化的 ChatGPT 应用开发工具」。
你无需从零写 Prompt、代码和接口,只需通过拖拽、配置,就能让你的 AI 应用运行起来。
支持的模型包括:
- ✅ OpenAI(如 GPT-4、GPT-4o、GPT-3.5)
- ✅ Anthropic Claude
- ✅ Mistral、Ollama、本地模型
- ✅ Azure OpenAI、Gemini、Moonshot 等
二、Dify 的主要功能
| 功能模块 | 简介 |
|---|---|
| 🧩 Prompt 工具 | 可视化提示词编辑器,支持变量、上下文管理 |
| ⚙️ Workflow 工作流 | 拖拽式 AI 应用流程设计(类似 Flowise) |
| 🧑💻 Playground 测试台 | 在线调试 Prompt 与模型输出 |
| 📦 模型管理 | 集中配置与切换模型 |
| 🔌 API 接口 | 为构建的 AI 应用自动生成 REST API |
| 🔒 用户与权限系统 | 支持团队协作与访问控制 |
Dify 让开发者更关注「业务逻辑与效果」,而不是底层调用与参数管理。
三、安装与启动(Docker 推荐)
1️⃣ 安装 Docker & Docker Compose
在终端中执行(Windows 用户建议使用 WSL):
# 安装 Docker
sudo apt install docker.io docker-compose -y
# 启动 Docker 服务
sudo systemctl start docker
2️⃣ 获取 Dify 源码
git clone https://github.com/langgenius/dify.git
cd dify
3️⃣ 启动服务
docker compose up -d
等待容器启动完成后,打开浏览器访问:
默认会进入安装引导界面,设置管理员账户后即可使用。
四、Dify 界面介绍
进入主界面后,你会看到几个核心模块:
- 应用(Applications) – 你的 AI 应用集合
- Prompt – 提示词编辑器
- Workflows – 工作流编辑器(拖拽式流程)
- Datasets – 知识库,支持上传文档做检索增强(RAG)
- Settings – 模型配置、API Keys、系统设置
五、创建你的第一个 AI 应用
1️⃣ 新建一个应用
点击 “New App”,选择「Chat App」类型。
2️⃣ 设置 Prompt
输入如下内容:
你是一名资深编程助理,请用简洁的方式回答用户的编程问题。
然后点击右侧的「Test」,输入问题:
“Python 如何计算文件的 MD5 值?”
模型输出类似:
import hashlib
def file_md5(path):
with open(path, 'rb') as f:
return hashlib.md5(f.read()).hexdigest()
成功 🎉 !你的第一个 Dify 应用已经跑起来了。
3️⃣ 部署与调用
切换到「Deploy」标签页,可以看到 Dify 自动为你生成的 API:
POST /v1/apps/{app_id}/chat-messages
Authorization: Bearer {API_KEY}
你可以在外部项目(如 Flask、Laravel、Node.js)中直接调用,实现自己的 AI 服务。
六、连接你自己的模型(OpenAI、Ollama等)
进入 Settings → Model Provider,添加自己的模型服务:
- OpenAI:填写
OPENAI_API_KEY - Ollama:填写
http://localhost:11434 - Azure、Claude、Gemini 等都支持
然后在应用中选择对应模型即可。
七、与 Flowise / LangChain 的区别
| 对比项 | Dify | Flowise | LangChain |
|---|---|---|---|
| 界面 | ✅ 可视化(Web UI) | ✅ 可视化 | ❌ 代码驱动 |
| 模型支持 | ✅ 多模型统一管理 | ✅ 多模型 | ✅ 丰富生态 |
| 工作流 | ✅ 拖拽式 | ✅ 拖拽式 | ❌ 需代码实现 |
| API生成 | ✅ 自动生成 | ⚙️ 手动配置 | ❌ 需开发 |
| 学习成本 | ⭐ 低 | ⭐⭐ 中等 | ⭐⭐⭐ 偏高 |
一句话总结:
Dify = 可视化 + LangChain 能力 + 一键部署。
八、常见问题(FAQ)
1️⃣ 启动后网页打不开?
→ 检查 docker compose ps 是否都为 Up 状态,或重启容器。
2️⃣ 模型返回 401?
→ 检查 API Key 是否填写正确,或对应模型是否有调用权限。
3️⃣ 如何备份配置?
→ 导出 docker volume 或复制 .env 与数据库文件。
九、总结与心得
Dify 的核心优势在于:
- 快速上手(几分钟就能跑起来)
- 零代码构建 AI 应用
- 自动生成接口,方便集成到现有系统
- 活跃的社区与插件生态
适合:
- 开发者搭建自己的 AI 助手
- 企业快速落地内部知识问答系统
- 产品经理验证 AI 原型
未来,Dify 还计划支持更多插件与自定义节点,真正成为「AI 应用的 WordPress」。
🔗 参考资料
💡 结语:
Dify 让「AI 应用开发」像搭乐高一样简单。
如果你厌倦了反复写 Prompt、封装 API、部署前后端,不妨试试 Dify —— 一站式构建属于你的智能应用!
更多推荐



所有评论(0)