【人工智能agent】--docker本地部署dify教程

【人工智能agent】--docker本地部署dify教程

目录

1.dify介绍

2.准备工作

3.安装docker

3.1.默认安装

3.2.自定义路径安装(推荐)

3.3.验证docker

3.4.切换镜像源

4.下载git

5.下载dify源码

6.启动dify

7.打开dify


1.dify介绍

        Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

        非技术人员:不懂编程、对大模型不太懂,也可以使用DIFY

2、功能介绍
        由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的流程编排,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

3、相关网站

dify官网:Dify.AI · 生成式 AI 应用创新引擎

部署dify首先下载dokcer docker官网:Docker: Accelerated Container Application Development

使用文档链接:Deploy with Docker Compose | Dify

 2.准备工作

本地化部署dify所需要的安装包

  1. git安装包:用来拉取dify的代码
  2. docker desktop 安装包:用来docker compose部署
  3. dify源代码

这些在官网都可以下载到,这里再提供网盘资源:

链接: https://pan.baidu.com/s/1RHgSbVsTtn57TN4ZhTH1gA?pwd=v2sw 提取码: v2sw 

dify源码还是自己去官网下载吧,网盘里面的版本不是最新的:

https://github.com/langgenius/dify/issues

3.安装docker

3.1.默认安装

双击Docker Desktop Installer.exe,默认安装到c盘

3.2.自定义路径安装(推荐)

& ".\Docker Desktop Installer.exe"  install --installation-dir="D:\Docker"

3.3.验证docker

docker -v docker-compose -v 

3.4.切换镜像源

{ "builder": { "gc": { "defaultKeepStorage": "20GB", "enabled": true } }, "experimental": false, "registry-mirrors": [ "https://docker.feng.cx", "https://docker.m.daocloud.io", "https://docker.imgdb.de", "https://docker-0.unsee.tech", "https://docker.hlmirror.com", "https://docker.1ms.run", "https://func.ink", "https://lispy.org", "https://docker.xiaogenban1993.com", "https://docker.xuanyuan.me", "https://docker.rainbond.cc", "https://do.nark.eu.org", "https://dc.j8.work", "https://docker.hpcloud.cloud", "https://docker.unsee.tech", "https://docker.1panel.live", "http://mirrors.ustc.edu.cn", "https://docker.chenby.cn", "http://mirror.azure.cn", "https://dockerpull.org", "https://dockerhub.icu", "https://hub.rat.dev" ] }

4.下载git

windows安装git(全网最详细,保姆教程)-ZEEKLOG博客

5. 下载dify源码

在git安装目录下执行下面的命令

git.exe clone --progress -v "https://github.com/langgenius/dify.git" "D:\dify"

·当然如果通过资源下载了源码,那就可以跳过此步骤

6.启动dify

在git bash窗口下依次执行下面的命令

cd dify/docker cp .env.example .env docker compose -p dify up -d 

安装完成过后,验证一下

docker compose ps 

7.打开dify

进入dify

http://127.0.0.1/install 

先注册一个账号,

Read more

把 Vivado 项目放心交给 Git:一篇 FPGA 工程师必读的实战指南

之前分享过一篇文章《FPGA 版本管理三种方式:你会选哪一种?》,评论区很多人都推荐使用Git进行版本管理,今天这篇文章主题就是使用Git进行备份指南。 在 FPGA 开发中,掌握 Git 等源码管理工具已经是必备技能。 当然,在使用 Vivado 时,我们不仅需要处理源代码控制,还需要处理以 IP 为中心的设计产品。 Vivado 的工程通常是 IP 为中心 的设计,包含: * IP Integrator Block Diagram * 各类 IP 实例(独立 IP 或 BD 内 IP) * 自动生成的包装文件与工程产物 这让很多 FPGA 工程师一开始会觉得: “Vivado 项目到底该怎么和 Git 一起用?” 好消息是,从 Vivado

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 三方库 bavard 的鸿蒙化适配指南 - 实现语义化的聊天消息协议、支持机器人自动回复逻辑与分布式通讯元数据封装 前言 在进行 Flutter for OpenHarmony 的社交或客户支持类应用开发时,除了核心的 WebSocket 传输,如何规范化定义“消息(Message)”的数据结构以及处理复杂的对话逻辑状态,往往决定了项目的后期维护性。bavard 是一个专为高度语义化聊天交互设计的协议封装库。它能让你在鸿蒙端以极具逻辑感的对象模型来驱动对话流。本文将带大家了解如何利用 bavard 构建标准化的聊天架构。 一、原理解析 / 概念介绍 1.1 基础原理 bavard 将一次对话拆解为“参与者(Participants)”、“话题(Topics)”和“原子消息(Discrete Messages)”。它提供了一套完整的状态机,用于驱动从“

机器人-六轴机械臂的正运动学

机器人-六轴机械臂的正运动学

在机器人运动学建模领域,D-H(Denavit-Hartenberg)参数法绝对是绕不开的核心技术。它以极简的4个参数,就能清晰描述机械臂各连杆间的相对位姿关系,是实现正运动学求解、轨迹规划的基础。本文将从理论原理出发,一步步拆解六轴机械臂的D-H法建模流程,最后结合代码实现让理论落地,适合机器人初学者或技术爱好者深入学习。 一、为什么选择D-H法?—— 机械臂建模的“通用语言” 六轴机械臂作为工业场景中最常用的机器人构型,其连杆与关节的空间关系复杂。如果直接用三维坐标系叠加计算,不仅公式繁琐,还容易出现坐标混乱的问题。而D-H法的核心优势的在于“标准化”: * 简化参数:用仅4个参数(关节角、连杆偏移、连杆长度、连杆扭转角)描述相邻连杆的位姿,替代复杂的三维坐标变换; * 通用性强:适用于所有串联机械臂,无论是六轴、四轴还是协作机械臂,都能套用同一套建模逻辑; * 计算高效:通过齐次变换矩阵的乘积,可快速求解末端执行器相对于基坐标系的位姿,为后续运动学分析奠定基础。 简单来说,学会D-H法,就掌握了串联机械臂建模的“通用语言”。 二、D-H法核心:4个

使用GpuGeek高效完成LLaMA大模型微调:实践与心得分享

使用GpuGeek高效完成LLaMA大模型微调:实践与心得分享

使用GpuGeek高效完成LLaMA大模型微调:实践与心得分享 🌟嗨,我是LucianaiB! 🌍 总有人间一两风,填我十万八千梦。 🚀 路漫漫其修远兮,吾将上下而求索。 随着大模型的发展,越来越多的AI开发者开始尝试对开源模型进行微调,以适配垂直场景需求。但由于训练资源昂贵、部署过程繁琐,很多人仍止步于“想做”阶段。 本文将结合我在 GpuGeek 平台 上对 LLaMA 模型的微调实践,分享完整流程、调优经验以及平台带来的优势,帮助更多开发者低门槛开启大模型实践之路。 注册链接:https://gpugeek.com/login?invitedUserId=753279959&source=invited 一、选型与准备 选择模型:LLaMA-7B Meta发布的LLaMA系列模型在性能与资源消耗之间取得了不错的平衡,适合作为个人或中小团队的定制基础模型。我选择了 LLaMA-7B,结合LoRA方法进行微调。 选择平台:GpuGeek 为什么选GpuGeek? ✅ 显卡资源充足、节点丰富:支持多种高性能GPU,