01_Dify开源版使用源代码本地启动

01_Dify开源版使用源代码本地启动

一、前提条件

1.1 硬件要求

在安装 Dify 之前,请确保您的设备符合以下最低系统要求:

  • CPU >= 2 核
  • RAM >= 4 GiB

1.2 安装Docker和Docker Compose

在这里插入图片描述

👉 Ubuntu 安装Docker和Docker Compose图文教程

👉 Windows下DockerDesktop安装配置图文教程,含软件安装包

1.3 安装 Git

👉 Windows下Git安装配置及常用操作图文教程,含软件安装包

二、克隆 Dify 仓库

2.1 添加 Dify 的远程仓库

git remote add dify https://gitee.com/dify_ai/dify.git 
在这里插入图片描述

2.2 查看已关联的远程仓库

git remote -v 
在这里插入图片描述

2.3 拉取 Dify 远程仓库指定 tag 的代码

获取 Dify 远程仓库的所有信息(包括 tags),这会从远程仓库下载所有 tag 和对应的提交历史。

git fetch --tags 
在这里插入图片描述

查看可用的 tag 列表,退出输入q

git tag -l 
在这里插入图片描述

完整克隆 Dify 代码

git clone https://github.com/langgenius/dify.git 

切换到 Dify 代码目录

cd dify 
在这里插入图片描述

然后创建基于 tag 的分支

# git checkout tags/<tag_name> -b <new_branch_name> git checkout tags/1.4.3 -b dify-1.4.3 

三、创建虚拟环境

👉 Windows下Miniconda3安装配置图文教程,含软件安装包

3.1 创建虚拟环境

需要 Python 3.12

conda create --name dify python=3.12
在这里插入图片描述

3.2 查看虚拟环境

conda env list 
在这里插入图片描述

四、启动 API 服务

4.1 Dify 项目配置文件

导航到 api 目录

cd api 
在这里插入图片描述

准备环境变量配置文件

cp .env.example .env 
在这里插入图片描述

生成随机密钥并替换 .env 文件中的 SECRET_KEY 值

awk -v key="$(openssl rand -base64 42)"'/^SECRET_KEY=/ {sub(/=.*/, "=" key)} 1' .env > temp_env &&mv temp_env .env 
在这里插入图片描述

4.2 安装 Dify 项目依赖

使用 VSCode 打开 Dify 项目,选择 dify 虚拟环境

在这里插入图片描述

使用 uv 管理依赖,安装 uv

pip install uv 
在这里插入图片描述

通过运行以下命令使用 uv 安装所需依赖

uv sync
在这里插入图片描述

4.3 Dify 数据库迁移

在 PostgreSQL 数据库创建 dify 库

在这里插入图片描述

执行数据库迁移到最新版本

uv run flask db upgrade 
在这里插入图片描述

4.4 启动 API 服务

uv run flask run --host 0.0.0.0 --port=5001 --debug 
在这里插入图片描述

五、启动 Worker 服务

要从队列中消费异步任务,例如数据集文件导入和数据集文档更新,请按照以下步骤启动 Worker 服务

5.1 macOS 或 Linux 启动 Worker 服务

uv run celery -A app.celery worker -P gevent -c 1 --loglevel INFO -Q dataset,generation,mail,ops_trace 

5.2 Windows 系统启动 Worker 服务

新建终端,安装 python-magic 的 Windows 兼容版本

# 进入 api 目录 cd api # 安装依赖  pip install python-magic-bin 
在这里插入图片描述

启动 Worker 服务请使用以下命令:

uv run celery -A app.celery worker -P solo --without-gossip --without-mingle -Q dataset,generation,mail,ops_trace --loglevel INFO 

预期输出:

在这里插入图片描述

六、设置 Web 服务

启动用于前端页面的 web 服务。

6.1 环境准备

要启动 web 前端服务,需要 Node.js v22 (LTS) 和 PNPM v10。

👉 Windows下Node和pnpm的安装配置图文教程,含软件安装包

6.2 启动 Web 服务

新建终端,进入 web 目录

cd web 
在这里插入图片描述

安装依赖

pnpminstall
在这里插入图片描述

准备环境变量配置文件:在当前目录中创建一个名为 .env.local 的文件,并从 .env.example 复制内容。根据您的需求修改这些环境变量的值:

在这里插入图片描述

启动 web 服务

pnpm run dev 
在这里插入图片描述

6.3 访问 Dify

通过浏览器访问 http://127.0.0.1:3000 即可享受 Dify 所有激动人心的功能

在这里插入图片描述

控制台日志输出:

在这里插入图片描述

6.4 设置管理员账户

注册管理员账户

在这里插入图片描述

注册成功后登录

在这里插入图片描述

登录成功

在这里插入图片描述

七、解决后台报错问题

7.1 问题分析

在这里插入图片描述

在本地部署 Dify 时,其核心模块尝试与插件守护进程(Plugin Daemon Service)通信失败

7.2 解决方案

dify-plugin-daemon使用源码启动图文教程

7.3 效果展示

API 服务端控制台输出不再报获取插件的错误

在这里插入图片描述

Read more

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

企业级图像AIGC技术观察:Seedream 4.0 模型能力与应用场景分析

引言:突破视觉创作的传统限制 在视觉内容的创作领域,长久以来存在着一系列由技术、时间及预算构成的严格限制。这些限制直接影响着创意从概念到最终呈现的全过程。一个富有创造力的设计师,可能会因为无法承担高昂的实地拍摄费用,而不得不放弃一个原本极具潜力的广告方案。一个构思了宏大世界观的故事作者,可能因为不具备操作复杂三维建模软件的专业技能,而使其笔下的角色无法获得具象化的视觉呈现。一家新兴的初创公司,也可能因为传统设计流程的冗长和低效,在快速变化的市场竞争中错失发展机会。 社会和行业在某种程度上已经习惯了这种因工具和流程限制而产生的“创意妥协”。创作者们在面对自己宏大的构想时,常常因为工具的局限性而感到无力。一种普遍的观念是,顶级的、具有专业水准的视觉呈现,是少数拥有充足资源和专业团队的机构或个人的专属领域。 然而,由豆包·图像创作模型Seedream 4.0所引领的技术发展,正在从根本上改变这一现状。它所提供的并非是对现有工具集的微小改进或功能补充,而是一种全新的、高效的创作工作模式。通过这一模式,过去需要专业团队投入数周时间才能完成的复杂视觉项目,现在可以在极短的时间内,在操作者的

By Ne0inhk
彻底解决 Codex / Copilot 修改中文乱码【含自动化解决方案】

彻底解决 Codex / Copilot 修改中文乱码【含自动化解决方案】

引言 在使用 GitHub Copilot 或 OpenAI Codex 自动重构代码时,你是否遇到过这样的尴尬:AI 生成的代码逻辑完美,但原本注释里的中文却变成了 我爱中文 这样的乱码?有时候这种字符甚至会污染正确的代码,带来巨大的稳定性隐患。 一、 问题核心:被忽视的“终端中转” 乱码的根源不在于 AI 的大脑,也不在于编辑器的显示,而在于执行链路的编码不一致。 Copilot/Codex 在执行某些修改任务(如:重构整个文件或批量替换)时,往往会通过终端调用系统指令。由于 Windows 终端(PowerShell/CMD)默认使用 GBK 编码,它在处理 AI 传来的 UTF-8 字节时会发生“误读”,导致写入文件的内容从源头上就损坏了。

By Ne0inhk
文心一言开源版部署及多维度测评实例

文心一言开源版部署及多维度测评实例

文章目录 * 第一章 文心一言开源模型简介 * 第二章 模型性能深度实测 * 2.1 通用能力基准测试 * 2.1.1 文本生成质量 * 2.1.2 数学推理能力 * 2.2 极端场景压力测试 * 2.2.1 高并发性能 * 2.2.2 长上下文记忆 * 第三章 中文特色能力解析 * 3.1.2 文化特定理解 * 3.2 行业术语处理 * 3.2.1 法律文书解析 * 3.2.2 医疗报告生成 * 第四章 开源生态建设评估 * 4.1 模型可扩展性验证 * 4.

By Ne0inhk
AIGC浪潮下,风靡全球的Mcp到底是什么?一文讲懂,技术小白都知道!!

AIGC浪潮下,风靡全球的Mcp到底是什么?一文讲懂,技术小白都知道!!

个人主页-爱因斯晨 文章专栏-AIGC   长大好多烦恼,好愁! 目录   前言 初步了解 Mcp到底是个啥? 发展 理论基础 核心组件 使用逻辑 于传统API不同之处 模型推荐   前言 上年这个时候,刚拿到录取通知书。哥哥教我用ai智能体,其实就是向我炫技。当时我问他,为什么不能直接给我生成图表,直接给我生成多好,省得我再去复制了。他说,其实很简单,只要做个接口协议什么的就行,只是目前国内没人做。当时说的很高深,我也听不懂。没想到年底,这个功能就实现内测了。在某种程度上,我也算是预言了哈哈。 初步了解 Mcp到底是个啥? Mcp,全称 Model Context Protocol,翻译过来是模型上下文协议。你不用管这高大上的名字,简单说,它就是和大 AI 模型聊天时,一种把相关信息整理好、按规矩传给 AI 的方式。

By Ne0inhk