Win11+IDEA插件实现大模型AI开发(Codex-gpt-5.4)
Win11+IDEA插件实现大模型AI开发之Codex-gpt-5.4
一、需要准备Node环境


二、安装Codex
操作步骤:
2.1如果已经安装Codex但是执行报错需要先卸载,没有安装过则直接进行步骤2.3
npm uninstall -g @openai/codex 2.2删除相关的文件Codex,避免文件影响
rd /s /q


操作步骤:
npm uninstall -g @openai/codex rd /s /q
文章目录 * **一、 内核重构:从“监控窗口”到“智能决策引擎”** * **二、 场景深化:从“单一监控”到“全域智能”** * **三、 架构演进:从“封闭塔楼”到“开放云边端协同体”** * **四、 挑战与破局:智能征途上的关键障碍** * **五、 未来图景:向自适应与共生智能演进** * **六、 产业影响:重塑竞争格局与价值分配** * **结论** 在工业自动化与信息化融合的浪潮中,上位机(Supervisory Control and Data Acquisition, SCADA/HMI系统)作为连接物理设备与数字世界的“神经中枢”,正经历一场由人工智能(AI)驱动的深刻革命。这场变革远非简单的功能叠加,而是从核心架构、功能范式到生态角色的系统性重构。AI的融入,正使上位机从一个被动的数据监控与指令执行平台,演变为一个具备感知、分析、
【本文作者:Rickton】 本文是 2026 年最新可用的 WSL2 + OpenClaw 完整部署教程,面向零基础用户,从开启 WSL2、安装 Ubuntu、配置 Node.js 到一键启动 OpenClaw 控制台,一步一命令,复制粘贴即可运行。 解决 Windows 原生部署报错、环境不兼容、端口不通、Node 版本不对等常见问题,适合本地搭建 AI 助手、学习 Agent 开发。 第一部分:认识 WSL2—— Windows 中的 Linux 环境 WSL2 是什么? WSL2 (Windows Subsystem for Linux 2) 是微软官方提供的一项功能,
前言 随着开源大模型越来越成熟,我们完全可以在自己电脑上本地运行AI,不联网、不上传数据、免费使用,隐私性极强。 今天这篇文章,我会一步步带你完成:Ollama + Qwen3.5:cloud(主力模型)+ Qwen3:0.6b(轻量备选)+ OpenClaw 的本地部署,实现一个属于自己的本地聊天AI,兼顾效果与低配置适配。 一、项目介绍 本项目实现本地离线运行阿里通义千问系列大模型(Qwen3.5:cloud 主力模型 + Qwen3:0.6b 轻量备选模型),全程不需要云端API,不需要高性能显卡,普通电脑就能跑,可根据自身电脑配置选择对应模型。 用到的工具: * Ollama:最简单的本地大模型管理工具,一键拉取、运行、管理模型 * Qwen3.5:cloud:阿里云开源的轻量高性能大语言模型,对话效果强、适配本地部署,作为主力使用
API 调用基础:执行式AI必备网络请求知识 📝 本章学习目标:本章是入门认知部分,帮助零基础读者建立对AI Agent的初步认知。通过本章学习,你将全面掌握"API 调用基础:执行式AI必备网络请求知识"这一核心主题。 一、引言:为什么这个话题如此重要 在AI Agent快速发展的今天,API 调用基础:执行式AI必备网络请求知识已经成为每个开发者和研究者必须了解的核心知识。无论你是技术背景还是非技术背景,理解这一概念都将帮助你更好地把握AI时代的机遇。 1.1 背景与意义 💡 核心认知:AI Agent正在从"对话工具"进化为"执行引擎",能够主动完成任务、调用工具、与外部世界交互。这一变革正在深刻改变我们的工作和生活方式。 从2023年AutoGPT的横空出世,到如今百花齐放的Agent生态,短短一年多时间,执行式AI已经从概念走向落地。根据最新统计,全球AI Agent市场规模已突破百亿美元,年增长率超过100%