亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

亚马逊云科技 EC2 部署 Dify,集成 Amazon Bedrock 构建生成式 AI 应用

文章目录

在这里插入图片描述

新用户可获得高达 200 美元的服务抵扣金

亚马逊云科技新用户可以免费使用亚马逊云科技免费套餐(Amazon Free Tier)。注册即可获得 100 美元的服务抵扣金,在探索关键亚马逊云科技服务时可以再额外获得最多 100 美元的服务抵扣金。使用免费计划试用亚马逊云科技服务,最长可达 6 个月,无需支付任何费用,除非您选择付费计划。付费计划允许您扩展运营并获得超过 150 项亚马逊云科技服务的访问权限。

前言

本文围绕 Amazon EC2 实例上部署 Dify 开源版本展开,通过集成 Amazon Bedrock,实现多模型的快速调用,为开发者降低了门槛、提升了效率,助力用户从环境搭建到应用上线高效完成,轻松开启生成式 AI 的实践之旅

前提准备:亚马逊云科技注册流程

Step.1 登录官网
登录亚马逊云科技官网,填写邮箱和账户名称完成验证(注册亚马逊云科技填写 root 邮箱、账户名,验证邮件地址,查收邮件填验证码验证,验证通过后设 root 密码并确认)

Step.2 选择账户计划
选择账户计划,两种计划,按需选"选择免费计划 / 选择付费计划"继续流程免费(6 个月,适合学习实验,含$200抵扣金、限精选服务,超限额或到期可升级付费,否则关停)付费(适配生产,同享$200 抵扣金,可体验全部服务,抵扣金覆盖广,用完按即用即付计费)

Step.3 填写联系人信息
填写联系人信息(选择使用场景,填联系人全名、电话,选择所在国家地区,完善地址、邮政编码,勾选同意客户协议,点击继续 进入下一步)

Step.4 绑定信息
绑定相关信息,选择国家地区,点击"Send code"收验证码填写,勾选同意协议后,点击"验证并继续"进入下一步

Step.5 电话验证
电话验证填写真实手机号,选择验证方式,完成安全检查,若选语音,网页同步显 4 位数字码,接来电后输入信息,再填收到的验证信息,遇问题超 10 分钟收不到可返回重试。

Step.6 售后支持
售后支持:免费计划自动获基本支持,付费计划需选支持计划(各计划都含客户服务,可访问文档白皮书,按需选后点 “完成注册”,若需企业级支持可了解付费升级选项,确认选好即可完成整个注册流程 )

Dify 集成 Amazon Bedrock 构建生成式 AI 应用

Amazon EC2 实例启动
1、启动 Amazon EC2 实例



2、点击启动实例



3、配置EC2实例(设名称标签,选AMI,定实例类型,还需补充设密钥对、存储、网络及高级项)



4、密钥对配置



5、网络设置



6、存储配置



7、摘要配置



8、连接实例



9、查看并保存公有 IPv4 地址

Dify 部署
1、安装 Docker 环境(通过 SSH 连接 EC2 实例后,安装 Docker 环境)

2、检查是否成功安装

3、安装并启动 Dify

4、安装结果



5、进程信息查看

Dify 集成 Amazon Bedrock
1、浏览器访问 http://{公有IPv4地址},即可成功访问 Dify 平台



2、设置管理员账号邮箱,用户名和密码登录



3、模型配置(点击右上角用户名-设置,模型供应商选择 Bedrock)



4、模型供应商配置



5、模型列表查看



6、系统模型设置,选择默认系统推理模型为 Llama 2 Chat 70B, Embedding 模型为 amazon.titan-embed-text-v2:0

Dify 构建应用
1、对话型应用创建



2、选择聊天助手,基础编排,并为此应用起名,图中应用名称为聊天机器人,点击创建



3、编排页面中,添加提示词,并确认添加变量 jobName,点击左下的 + 添加功能 ,打开对话开场白设置



4、配置完成开始聊天,点击右上的模型名称切换不同模型,开启模型对比,以及微调模型参数



Amazon Bedrock 介绍

在这里插入图片描述
Amazon Bedrock 亚马逊云科技推出的全托管生成式 AI 服务,统一 API 为核心纽带,聚合亚马逊云科技自研的 Titan 系列模型及 Anthropic Claude、Meta Llama、Stability AI 等第三方顶尖大语言模型与生成式 AI 模型,构建起多元且强大的模型生态,开发者无需投入精力管理模型训练、部署所需的底层服务器、算力调度等基础设施,只需通过简单的 API 调用,即可快速接入各类模型能力,轻松构建从智能对话机器人、自动化内容生成到图像创作等多样化的生成式 AI 应用。这种 “开箱即用” 的模式,大幅降低了生成式 AI 技术的使用门槛,还让企业与开发者能更聚焦于业务场景创新,加速 AI 应用从概念到落地的全流程

多模型生态聚合:整合亚马逊云科技自研 Titan 系列、Anthropic Claude、Meta Llama 等主流模型,支持文本生成、图像创建等多元场景,用户可按需选择或对比不同模型性能,无需重复适配接口

全托管与低门槛:无需搭建模型训练 / 部署环境,通过简单 API 调用即可使用模型能力,同时支持模型微调与定制,让企业能快速将自有数据融入模型,贴合业务需求

安全合规与无缝集成:数据隐私受严格保护,符合 GDPR、HIPAA 等合规标准;且能与 EC2、S3、Lambda 等亚马逊云科技服务深度联动,轻松构建端到端的生成式 AI 应用链路

总结

通过实践可以清晰看到,Dify 凭借对大语言模型访问流程的深度封装,为用户打造了一条低门槛的 LLM 接入路径 ,无需复杂的底层开发,开发者就能在短时间内构建出接近生产级别的 AI 应用,Dify 与 Amazon Bedrock 的无缝集成,让用户得以轻松调用 Bedrock 生态中的多款主流模型,无需单独适配不同模型的接口,大幅简化多模型管理与应用迭代的复杂度,真正实现了 “轻量部署、快速落地” 生成式 AI 开发体验简化接入流程:封装 LLM 底层逻辑,可视化操作降低技术门槛,非专业开发者也能快速上手多模型灵活集成:与 Amazon Bedrock 深度联动,一键调用多款主流模型,无需单独适配,提升应用灵活性加速应用落地:轻量化全流程设计,快速构建准生产级应用,降低时间与资源成本

以上就是本文的全部内容啦。最后提醒一下各位工友,如果后续不再使用相关服务,别忘了在控制台关闭,避免超出免费额度产生费用~

Read more

IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

IntelliJ IDEA AI Assistant 携带OpenCode保姆级安装教程来了

01 引言 AI Assistant 是 JetBrains 官方推出的 AI 驱动插件,专为软件开发设计。但是之前由于需要订阅才能使用,安装了之后又卸载了。 上一节简单介绍了一下IDEA 2026.1的简单功能,没有实际使用AI Assistant推出的ACP自定义模型。本节将通过安装opencode了解其使用过程。 02 安装 安装上一节已经介绍了,这里不在赘述。但是在安装过程中可能会出现一些问题。 2.1 安装后无法使用 明显显示已经安安装好了,几乎秒级安装,怎么感觉都有点离谱。 但是在对话框无法使用,无法发出信息,也没有选择模型的地方。 其实这个时候是后台在下载opencode的安装包,只不过界面没有明确的提示。可能由于网络原因下载失败,导致对话框无法使用。如果有网络原因,也可以从GitHub手动下载。 真正下载完成之后保存的位置: C:\Users\{user.name}\AppData\Local\JetBrains\acp-agents\.downloads\opencode 重启IDEA编辑器,

2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单

2025 AI数据准备:EasyLink让多模态非结构化数据处理变简单

一、前言 在数据驱动的时代,企业每天被PDF、财报、合同、研究报告等海量文档所淹没。这些非结构化的多模态数据中蕴藏着关键业务洞察,却因格式复杂、版式多样、信息分散,成为难以开采的暗数据。研究人员仍需逐页翻查论文,分析师依旧通宵解析百页报表——传统处理方式不仅效率低下,更在规模面前显得无力。 随着大模型的普及,许多人期待它能自动化解这一困境。然而现实却揭示出一个严峻挑战:即使是当前最先进的视觉大模型,在面对复杂版式文档、混排图表与密集文本时,其识别准确率仍与专业非结构化数据处理工具存在显著差距。 一项全面测评显示,通过在多个OCR方法中探索中小模型的参数量、计算量、数据量对于精度的影响,成功证明了OCR领域在这三个维度存在Power-Law规律。 这些研究成果表明,OCR技术在提升多模态大模型性能方面发挥着关键作用,尤其是在处理复杂的视觉问答任务时。我们的工作不仅推动了OCR技术的发展,也为多模态大模型的应用提供了新的视角。 正式研究人员的不断努力,EasyLink团队致力于从数据源头破解这一难题。通过行业领先的智能文档解析与图表理解技术,为多模态大模型提供清洁、结构化

OpenClaw 小龙虾Windows10 专属一键部署教程|10 分钟搞定本地 AI 数字员工

OpenClaw 小龙虾Windows10 专属一键部署教程|10 分钟搞定本地 AI 数字员工

适配系统:Windows10 64 位(纯小白友好版)核心优势:免命令行、免环境配置、解压即装,内置所有运行依赖,全程可视化操作,新手也能一次成功部署 2026 爆火的开源 AI 智能体!本文专属:针对 Windows10 系统适配优化,解决 Win10 特有的 SmartScreen 拦截、路径权限等问题,附专属避坑指南,放心 “养虾” 不踩雷~ 目录(点击可跳转) 1. OpenClaw (小龙虾) 是什么?Win10 用户必看优势 2. Win10 安装前「致命避坑」(不看必部署失败) 3. 第一步:下载 Win10 适配版一键部署包 4. 第二步:

Kubernetes与AI推理服务最佳实践

Kubernetes与AI推理服务最佳实践 1. AI推理服务核心概念 1.1 什么是AI推理服务 AI推理服务是指将训练好的AI模型部署为可访问的服务,用于实时或批量处理推理请求。在Kubernetes环境中,AI推理服务需要考虑资源管理、性能优化和高可用性。 1.2 常见的AI推理框架 * TensorFlow Serving:Google开源的机器学习模型服务框架 * TorchServe:PyTorch官方的模型服务框架 * ONNX Runtime:微软开源的跨平台推理引擎 * Triton Inference Server:NVIDIA开源的高性能推理服务器 2. GPU资源管理 2.1 安装GPU驱动和NVIDIA Device Plugin # 安装NVIDIA驱动(在节点上执行) apt-get install -y nvidia-driver-535 # 安装NVIDIA Device Plugin kubectl apply -f https://raw.githubusercontent.com/NVIDIA/