跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
|注册

标签

全部标签AIjavaNode.jsNuctPayPPT制作React NativeRNSaaSWeChat大前端算法

分类

全部分类
编程语言
PythonJavaScriptTypeScriptJavaKotlinGo / GolangRustC++CC#F#PHPRubySwiftObjective-CScalaClojureElixirErlangHaskellDartLuaPerlRJuliaMATLAB / OctaveSQLShell / BashPowerShellHTML / CSSZigNimCrystalGroovyVisual Basic .NETSolidity汇编

排序

最新更新最新发布最多浏览最多点赞
OpenClaw 接入飞书:10 分钟实现 AI 自动操作文档与表格
Shell / BashNode.jsAI

OpenClaw 接入飞书:10 分钟实现 AI 自动操作文档与表格

如何将 OpenClaw 接入飞书,实现 AI 自动操作文档、表格及日程等功能。教程分为四个阶段:首先在飞书开放平台创建企业自建应用并配置机器人权限;其次在服务器安装飞书插件并配置凭证;接着设置长连接以确保持续在线;最后在飞书群聊或私聊中进行配对使用。整个过程约需 10 分钟,旨在让 AI 助手真正融入工作流。

编程诗人发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 25 分钟阅读
OpenCode Superpowers 插件安装与使用全指南
Shell / BashAI

OpenCode Superpowers 插件安装与使用全指南

OpenCode Superpowers 插件的安装与使用方法。该插件通过集成 TDD、代码审查等技能,将 AI 编程提升至工程化标准。内容涵盖前置准备、详细的终端安装步骤(克隆仓库、创建符号链接)、激活验证流程、基础使用教程(技能列表、TDD 与头脑风暴示例)以及更新与常见问题排查方案,帮助用户快速掌握 AI 辅助开发的工程化实践。

活在当下发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 8 分钟阅读
Shell / BashAI

OpenClaw 开源个人 AI 智能助理部署教程

OpenClaw 开源个人 AI 智能助理的部署流程,涵盖云桌面环境准备、基础配置命令执行、模型认证设置及 QQ 机器人插件集成。通过快速入门模式完成初始化,配置 API Key 并启用记忆功能,最终实现通过 QQ 进行远程交互与控制。

AiEngineer发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 9 分钟阅读
Shell / BashNode.jsAI

OpenClaw 自动化 AI 智能体跨平台部署与日常使用教程

介绍 OpenClaw 自动化 AI 智能体的跨平台部署方法,涵盖 Windows、macOS 及 Linux 系统环境准备与一键安装脚本。详细说明了模型 API 配置、权限设置及 Web 面板访问方式。提供文件整理、数据处理、浏览器自动化等高频使用指令示例,并包含常见问题排查指南,帮助用户快速实现电脑自动化办公。

MqEngine发布于 2026/4/6更新于 2026/4/134 浏览0 点赞约 8 分钟阅读
Shell / BashNode.jsAI

OpenClaw 安装与飞书机器人接入完整教程

介绍 OpenClaw 开源 AI 智能体框架的安装与飞书机器人接入流程。涵盖阿里云服务器及本地 Windows 两种部署方案,包括环境准备、Node.js 依赖安装、Docker 或脚本一键部署。详细说明了如何配置阿里云百炼大模型 API Key,以及在飞书开放平台创建应用、配置事件订阅和权限。最后提供验证步骤与常见问题排查指南,帮助用户快速搭建 24 小时在线的 AI 协作助手。

栈溢出发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 19 分钟阅读
Docker 本地部署 Dify 开源 LLM 应用平台教程
Shell / BashAI

Docker 本地部署 Dify 开源 LLM 应用平台教程

如何在本地通过 Docker 部署 Dify 开源大模型应用开发平台。主要步骤包括安装 Docker 和 Git、配置镜像源、克隆 Dify 源码、初始化环境变量以及启动 Docker Compose 服务。完成部署后可通过本地浏览器访问界面进行账号注册和应用创建,适合希望私有化部署 LLM 应用的开发者。

NodeJser发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 4 分钟阅读
Shell / BashNode.jsAI

统信 UOS V2500 服务器 OpenClaw AI Agent 安装部署指南

档介绍了在统信 UOS V2500 服务器上安装部署 OpenClaw AI Agent 的全流程。主要步骤包括准备环境(Node.js v24.13.0)、执行一键安装脚本、配置服务端口及模型密钥(支持 Anthropic/OpenAI/Moonshot)、对接通讯应用及启用 Skills 插件。文档涵盖在线与离线安装方式、服务启动校验及常见问题排查,旨在确保 OpenClaw 稳定运行并发挥 AI 助手能力。

字节跳动发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 14 分钟阅读
Shell / BashAI

Windows 下 Codex 代理配置与一键切换脚本方案

Windows 环境下 Codex 因网络限制无法连接 OpenAI API,导致界面一直显示'正在思考'。系统代理对 Electron 应用无效,直接修改配置文件也不生效。通过设置 HTTP_PROXY 和 HTTPS_PROXY 环境变量可实现联网,但会影响国内软件。提供基于批处理脚本的一键切换方案,既能保证 AI 工具正常联网,又不影响其他国内软件运行,适用于 Codex、Cursor、VSCode 等多种开发工具。

内存管理发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 6 分钟阅读
WeBASE 一键部署配置与下载问题解决方案
Shell / Bashjava

WeBASE 一键部署配置与下载问题解决方案

详细记录了在 Ubuntu 20.04 环境下部署 WeBASE 的过程。主要步骤包括安装系统依赖、配置 Java 和 MySQL 环境、拉取部署脚本、修改配置文件以及处理 GitHub 下载慢的问题。针对网络不稳定情况,提供了使用 aria2 加速、修改 hosts 或手动下载文件的方法。最后通过启动服务并访问 Web 界面完成验证,同时给出了合约编写的 Remix 参考。

黑客帝国发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 15 分钟阅读
Shell / BashNode.jsAI

Claude Code 与 cc-switch 安装配置指南

详细说明了如何在终端环境中安装 Node.js、Claude Code CLI 及 cc-switch 图形化工具,并通过配置 API Key 实现调用 Kimi 等 AI 模型辅助编程。内容涵盖环境准备、工具安装、密钥获取、模型切换及速率限制说明,帮助用户快速搭建本地 AI 开发工作流。

开源信徒发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 15 分钟阅读
Shell / BashNode.jsAI算法

OpenClaw Memory 本地模式配置指南:Ubuntu+CUDA+llama.cpp

OpenClaw 默认不支持本地 Memory 检索,需配置本地 Embedding Provider。介绍在 Ubuntu 24.04 环境下,通过安装 CUDA 和 cuDNN、编译 llama.cpp 支持 GPU 加速,并配置 node-llama-cpp 及 sqlite-vec 插件,实现 OpenClaw 的本地记忆功能,避免使用远程 API 节省 Token。

墨染流年发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 14 分钟阅读
Shell / BashAI

VS Code + WSL 下 GitHub 访问不稳定及 Copilot 卡 Thinking 的解决方案

对 VS Code + WSL 环境下 GitHub 克隆失败及 Copilot 长期显示 Thinking 的问题提供解决方案。核心原因在于 WSL 网络结构与 Windows 主机网络出口 IP 动态变化导致代理配置失效。解决方法包括清理错误 Git 代理配置、测试直连、在 WSL 中配置主机出口 IP 代理、调整 VS Code 设置以继承环境变量,以及通过 Bash 脚本自动检测并更新网络出口配置,实现永久生效。

DataScient发布于 2026/4/6更新于 2026/4/132 浏览1 点赞约 11 分钟阅读
Mac mini M4 部署 OpenClaw + Ollama 本地大模型接入飞书机器人
Shell / BashNode.jsAI

Mac mini M4 部署 OpenClaw + Ollama 本地大模型接入飞书机器人

记录了在 Mac mini M4 (16GB) 上部署 OpenClaw 框架结合 Ollama 运行 Qwen 2.5-7B 模型,并通过 WebSocket 接入飞书机器人的完整流程。内容涵盖核心环境准备(Node.js/NVM)、模型选型对比、OpenClaw 配置文件详解、飞书后台事件订阅设置以及网关启动与调试步骤。重点解决了权限路径、NVM 环境加载及飞书权限申请等常见问题,实现了私有化本地 AI 助理的搭建。

二进制发布于 2026/4/6更新于 2026/4/134 浏览0 点赞约 7 分钟阅读
使用 Ollama、Open WebUI 和 Docker 本地部署 AI 大语言模型
Shell / BashAI

使用 Ollama、Open WebUI 和 Docker 本地部署 AI 大语言模型

详细讲解了在 Windows 系统下,利用 Ollama 运行本地大语言模型,并通过 Docker 部署 Open WebUI 构建可视化交互界面的方法。主要步骤涵盖 Hyper-V 与 WSL 环境配置、Docker Desktop 安装、模型拉取及容器启动,最终实现本地模型的网页端调用与对话测试。

虚拟内存发布于 2026/4/6更新于 2026/4/134 浏览0 点赞约 9 分钟阅读
Shell / BashAI

OpenWebUI 集成 SearXNG 实现本地大模型联网搜索

介绍如何通过部署 SearXNG 元搜索引擎解决本地大模型知识截止问题。通过 Docker Compose 搭建 SearXNG 服务,并配置 OpenWebUI 调用其 API,可实现联网搜索。重点讲解了如何启用百度、360 等国内搜索引擎以优化中文搜索结果,并提供详细的配置文件修改指南和常见问题排查方法。

热情发布于 2026/4/6更新于 2026/4/135 浏览0 点赞约 10 分钟阅读
OpenClaw 安全 AI 助理搭建与部署实战指南
Shell / BashNode.jsAI

OpenClaw 安全 AI 助理搭建与部署实战指南

介绍 OpenClaw 安全 AI 助理的搭建方法。基于官方安全指引,提供阿里云一键部署、Docker 容器隔离及本地安装三种方案。涵盖环境准备、API 接入、安全加固及问题排查,帮助读者低成本实现稳定运行。

魔尊发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 10 分钟阅读
Llama-Swap 本地多模型切换配置指南
Shell / BashAI算法

Llama-Swap 本地多模型切换配置指南

Llama-Swap,一个轻量级开源代理服务,用于在本地运行多个大语言模型(LLM)时实现动态切换。通过监听 OpenAI 风格 API 请求,它可根据模型名称自动启动或停止对应的 llama-server 进程,支持资源分组管理。文章提供了环境准备、安装步骤、配置文件编写及 API 调用测试的完整指南,帮助用户在本地低成本、高隐私环境下灵活部署多模型服务。

战神发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 8 分钟阅读
OpenClaw 多机器人团队协作配置指南
Shell / BashAI

OpenClaw 多机器人团队协作配置指南

介绍如何在 OpenClaw 中配置多个机器人以实现团队协作。通过创建新的飞书应用并配置 openclaw.json 中的 Channels 字段,实现不同角色的机器人绑定。步骤包括备份配置、修改 JSON 文件、启动网关、在飞书后台开启订阅及权限设置,最终完成多机器人配对与测试。

KernelLab发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 9 分钟阅读
Shell / BashAI

OpenClaw 多 Agent 与多飞书机器人配置指南

在 OpenClaw 中配置多个 Agent 并分别绑定不同飞书机器人的步骤。主要流程包括创建新 Agent、配置飞书 App ID 和 Secret、将 Agent 绑定到指定飞书账号以及重启 Gateway 服务。同时列出了常见问题,如消息无法回复、Token 配置错误及避免一个应用绑定多个 Agent 等注意事项。

无尘发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 4 分钟阅读
本地部署开源 AI 项目 LocalAI 实现消费级硬件运行大模型
Shell / BashAI算法

本地部署开源 AI 项目 LocalAI 实现消费级硬件运行大模型

介绍如何在本地服务器通过 Docker 部署开源 AI 项目 LocalAI,利用 CPU 即可运行大语言模型,保护数据隐私。教程涵盖容器启动、模型加载、Web 界面使用以及通过内网穿透工具实现远程访问的配置方法,帮助开发者在消费级硬件上低成本体验大模型能力。

DebugKing发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 8 分钟阅读
上一页第 15 / 50 页下一页