【人工智能agent】--docker本地部署dify教程

【人工智能agent】--docker本地部署dify教程

目录

1.dify介绍

2.准备工作

3.安装docker

3.1.默认安装

3.2.自定义路径安装(推荐)

3.3.验证docker

3.4.切换镜像源

4.下载git

5.下载dify源码

6.启动dify

7.打开dify


1.dify介绍

        Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

        非技术人员:不懂编程、对大模型不太懂,也可以使用DIFY

2、功能介绍
        由于 Dify 内置了构建 LLM 应用所需的关键技术栈,包括对数百个模型的支持、直观的 Prompt 编排界面、高质量的 RAG 引擎、稳健的 Agent 框架、灵活的流程编排,并同时提供了一套易用的界面和 API。这为开发者节省了许多重复造轮子的时间,使其可以专注在创新和业务需求上。

3、相关网站

dify官网:Dify.AI · 生成式 AI 应用创新引擎

部署dify首先下载dokcer docker官网:Docker: Accelerated Container Application Development

使用文档链接:Deploy with Docker Compose | Dify

 2.准备工作

本地化部署dify所需要的安装包

  1. git安装包:用来拉取dify的代码
  2. docker desktop 安装包:用来docker compose部署
  3. dify源代码

这些在官网都可以下载到,这里再提供网盘资源:

链接: https://pan.baidu.com/s/1RHgSbVsTtn57TN4ZhTH1gA?pwd=v2sw 提取码: v2sw 

dify源码还是自己去官网下载吧,网盘里面的版本不是最新的:

https://github.com/langgenius/dify/issues

3.安装docker

3.1.默认安装

双击Docker Desktop Installer.exe,默认安装到c盘

3.2.自定义路径安装(推荐)

& ".\Docker Desktop Installer.exe"  install --installation-dir="D:\Docker"

3.3.验证docker

docker -v docker-compose -v 

3.4.切换镜像源

{ "builder": { "gc": { "defaultKeepStorage": "20GB", "enabled": true } }, "experimental": false, "registry-mirrors": [ "https://docker.feng.cx", "https://docker.m.daocloud.io", "https://docker.imgdb.de", "https://docker-0.unsee.tech", "https://docker.hlmirror.com", "https://docker.1ms.run", "https://func.ink", "https://lispy.org", "https://docker.xiaogenban1993.com", "https://docker.xuanyuan.me", "https://docker.rainbond.cc", "https://do.nark.eu.org", "https://dc.j8.work", "https://docker.hpcloud.cloud", "https://docker.unsee.tech", "https://docker.1panel.live", "http://mirrors.ustc.edu.cn", "https://docker.chenby.cn", "http://mirror.azure.cn", "https://dockerpull.org", "https://dockerhub.icu", "https://hub.rat.dev" ] }

4.下载git

windows安装git(全网最详细,保姆教程)-ZEEKLOG博客

5. 下载dify源码

在git安装目录下执行下面的命令

git.exe clone --progress -v "https://github.com/langgenius/dify.git" "D:\dify"

·当然如果通过资源下载了源码,那就可以跳过此步骤

6.启动dify

在git bash窗口下依次执行下面的命令

cd dify/docker cp .env.example .env docker compose -p dify up -d 

安装完成过后,验证一下

docker compose ps 

7.打开dify

进入dify

http://127.0.0.1/install 

先注册一个账号,

Read more

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

【保姆级】无需公网 IP!Windows 本地一键部署 OpenClaw,10 分钟打造你的飞书 AI 数字员工

目录 写在前面 OpenClaw 是什么? 蓝耘平台是什么?与 OpenClaw 的关系 步骤一:极速安装,一行命令搞定环境 步骤二:启动向导,初始化配置参数 步骤 三:注入灵魂,获取蓝耘MaaS API Key 步骤四:打通渠道,搭建飞书长连接桥梁 步骤五:引擎点火,启动核心网关服务 步骤六:仪表盘检阅,后台状态可视化 步骤七:实战演练,验证智能交互效果 快速排错提示 写在末尾 写在前面 本文面向:想在 Windows 本地(PowerShell)一键部署 OpenClaw,使用蓝耘MaaS作为大模型,并通过飞书长连接模式实现 AI 机器人的用户。 内容涵盖:从零开始安装配置、对接飞书机器人、验证与排错的完整流程,

Stable-Diffusion-v1-5-archive效果展示:高清风格化图像生成作品集(附Prompt)

Stable-Diffusion-v1-5-archive效果展示:高清风格化图像生成作品集(附Prompt) 1. 引言:经典模型的魅力再现 如果你对AI绘画感兴趣,那么“Stable Diffusion”这个名字你一定不陌生。而今天我们要聊的,是它的一个经典版本——Stable Diffusion v1.5 Archive。这个模型就像是AI绘画世界里的“老将”,虽然现在有更新、更强大的模型出现,但它在风格化图像生成上的稳定性和独特的“味道”,依然让很多创作者爱不释手。 简单来说,Stable Diffusion v1.5 Archive是一个专门用来“文生图”的工具。你输入一段文字描述,它就能为你生成一张对应的图片。它的特点在于,对于很多艺术风格——比如油画感、动漫风、赛博朋克——有着非常出色的理解和表现力,生成的作品往往带有一种独特的质感和氛围。 这篇文章,我们不谈复杂的安装和配置,也不讲深奥的原理。我们就来一起看看,这个经典的模型到底能生成出怎样惊艳的图片。我会分享一系列不同风格、不同主题的生成作品,并且把生成每张图所用的“

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205模型生成AC代码对比

DeepSeek-R1-Distill-Llama-8B效果实测:CodeForces评分1205模型生成AC代码对比 1. 这个模型到底能写对几道编程题? 你有没有试过让AI帮你解算法题?不是那种“大概意思对就行”的伪代码,而是真正在CodeForces上能提交、能通过所有测试用例的AC代码?这次我们把目光投向一个刚开源不久、但已经在多个推理榜单上崭露头角的轻量级选手——DeepSeek-R1-Distill-Llama-8B。 它不是参数动辄几十B的大块头,而是一个仅80亿参数的蒸馏模型,却在CodeForces评测中拿到了1205分。这个分数意味着什么?它比GPT-4o(759分)高出近60%,比Claude-3.5-Sonnet(717分)翻了快一倍,甚至超过了QwQ-32B(1316分)的九成水平。更关键的是,它跑得快、占内存少、部署简单——用Ollama一条命令就能拉起来,本地笔记本也能稳稳扛住。 这篇文章不讲大道理,不堆参数,就做一件事:真实还原它解题的过程。我们选了5道CodeForces典型题(涵盖模拟、贪心、二分、图论和动态规划),从读题、思考、写代码,到

老码农和你一起学AI系列:LLaMA衍生模型

老码农和你一起学AI系列:LLaMA衍生模型

LLaMA衍生模型指的是基于Meta发布的LLaMA基础模型,通过微调、优化或扩展而产生的各类变体模型。就像LLaMA是一个强大的“通用大脑”,而衍生模型则是针对不同语言、不同任务、不同应用场景进行“专业培训”后的“专家”。根据衍生方式的不同,可以分为两大类:LLaMA衍生模型、官方演进版本 一、官方演进版本 LLaMA系列本身就在持续演进,每一代都是前一代的“官方衍生版”: 版本核心升级技术亮点LLaMA 1开源奠基13B参数超越GPT-3,验证“小模型+大数据”路线LLaMA 2可商用、GQA上下文翻倍至4K,引入分组查询注意力,70B版本逼近GPT-3.5LLaMA 315T数据、128K上下文405B旗舰版性能比肩GPT-4,代码占比提升至25%LLaMA 4MoE稀疏架构、多模态17B激活参数达400B总参数效果,原生支持图像/视频理解,1000万上下文窗口 二、社区微调衍生模型 Alpaca(斯坦福):LLaMA衍生模型的“鼻祖”。斯坦福团队用52K条指令数据对7B LLaMA进行微调,仅花费不到600美元就训练出媲美GPT-3.5的对话模型。