跳到主要内容
极客日志极客日志
首页博客AI提示词GitHub精选代理工具
|注册

标签

全部标签AIjavaNode.jsNuctPayPPT制作React NativeRNSaaSWeChat大前端算法

分类

全部分类
编程语言
PythonJavaScriptTypeScriptJavaKotlinGo / GolangRustC++CC#F#PHPRubySwiftObjective-CScalaClojureElixirErlangHaskellDartLuaPerlRJuliaMATLAB / OctaveSQLShell / BashPowerShellHTML / CSSZigNimCrystalGroovyVisual Basic .NETSolidity汇编

排序

最新更新最新发布最多浏览最多点赞
宇树 G1 机器人开发入门:有线与无线连接完整指南
Shell / BashAI算法

宇树 G1 机器人开发入门:有线与无线连接完整指南

介绍宇树 G1 机器人的两种开发连接方式:有线直连与无线 WiFi+SSH。有线连接通过网线配置静态 IP,适合底层调试;无线连接通过局域网 SSH 远程访问,支持机器人移动。内容包括前置条件、SDK 安装指引、网络配置步骤、连接验证及常见问题排查。完成连接后即可进行 SDK 开发与 ROS 集成。

信号故障发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 11 分钟阅读
Shell / Bash大前端

Ubuntu 22.04 环境下编译安装 libwebkit2gtk-4.1-0 指南

Ubuntu 22.04 官方源缺少 libwebkit2gtk-4.1-0 包,需源码编译。分析 apt 安装失败原因,并指导搭建构建环境,预装 cmake、ninja-build 等依赖,为后续编译 WebKitGTK 2.38 做准备。

监控大屏发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 2 分钟阅读
Ubuntu 24.04 本地部署 Open WebUI 与 Ollama
Shell / BashAI

Ubuntu 24.04 本地部署 Open WebUI 与 Ollama

介绍在 Ubuntu 24.04 系统上通过 Docker Compose 本地部署 Open WebUI 并连接 Ollama 服务的方法。内容包括项目拉取、环境变量配置、容器启动及 SearXNG 联网搜索功能的集成设置。同时提供了常见问题的排查建议,如模型加载时间及搜索引擎配置注意事项。

佛系玩家发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 12 分钟阅读
OpenClaw Dashboard 无法登录:systemd 缺失时的网关启动方案
Shell / BashNode.jsAI

OpenClaw Dashboard 无法登录:systemd 缺失时的网关启动方案

解决了在 systemd 不可用环境(如 FreeBSD jail)中运行 OpenClaw 时,Dashboard 无法登录的问题。原因是 gateway 服务未自动启动。通过手动执行 openclaw gateway 命令并配置端口和详细模式,可绕过 systemd 直接启动网关。同时调整了配置文件中的 allowedOrigins 以解决非回环地址绑定的警告。最终成功访问 Web 控制面板并完成 onboard 配置。

狂少发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 6 分钟阅读
使用 Ollama、Open WebUI 和 Docker 本地部署可视化 AI 大语言模型
Shell / BashAI

使用 Ollama、Open WebUI 和 Docker 本地部署可视化 AI 大语言模型

在本地环境中通过 Docker 部署 Open WebUI 并结合 Ollama 实现可视化 AI 大语言模型的完整流程。主要步骤包括安装 Ollama 并配置模型路径,启用 Hyper-V 及安装 WSL 子系统以支持 Docker 环境,随后使用 Docker 部署 Open WebUI 服务。最后通过 Web 界面连接已安装的模型进行交互测试,实现了无需云端即可使用的本地 AI 解决方案。

时间旅人发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 4 分钟阅读
Shell / BashAI大前端算法

DeepSeek-OCR-WEBUI 实战:从部署到网页调用的全流程自动化文档处理

介绍 DeepSeek-OCR-WEBUI 的部署流程与使用指南。涵盖环境准备、Docker 镜像拉取启动、Web 界面操作及 API 调用示例。通过提示词控制实现文本识别、表格还原及图表解析等功能。解决了传统 OCR 精度低、多语言支持弱的问题,提供零代码级别的文档处理方案,并包含常见问题排查与性能优化建议。

念念不忘发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 15 分钟阅读
Shell / BashAI

Docker 部署 OpenClaw:Web UI 访问、飞书配对及模型配置

总结了 Docker 部署 OpenClaw 时遇到的三个核心问题及其解决方案。首先解决了 Web UI 无法访问的跨域(CORS)配置问题,通过修改配置文件允许通配符来源。其次处理了飞书机器人配对码刷新导致失败的问题,指导使用 CLI 命令查看并授权最新配对请求。最后提供了接入公司自定义大模型节点的配置方法,通过修改 agents 和 models 节点实现本地模型调用。

锁机制发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 7 分钟阅读
Ubuntu22.04 安装与配置 OpenClaw AI 助手教程
Shell / BashAI

Ubuntu22.04 安装与配置 OpenClaw AI 助手教程

介绍在 Ubuntu 22.04 系统上安装和配置 OpenClaw AI 助手的步骤。内容包括一键安装脚本、模型接入(DeepSeek、GLM、MiniMax 等)、通讯渠道配置(飞书、钉钉)以及 Web 搜索功能(Exa)的设置。通过配置多模型切换和工具调用,实现 AI 辅助编程与任务自动化。

魔尊发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 35 分钟阅读
Shell / BashNode.jsAI

Windows 系统配置 AI 工具网络代理及一键切换脚本

Windows 环境下使用 Codex 等 AI 工具时,常因网络限制导致请求卡死在正在思考。根本原因是国内网络无法直接访问 OpenAI API。通过设置环境变量 HTTP_PROXY 和 HTTPS_PROXY 配合本地代理端口可解决。为避免影响国内软件,推荐使用批处理脚本动态切换环境变量,实现一键开启或关闭代理,确保开发工具联网的同时不影响其他应用。

极客工坊发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 6 分钟阅读
Shell / BashAI算法

在 Android 设备上利用 Termux 安装 llama.cpp 并启动 WebUI

介绍如何在 Android 设备的 Termux 环境中通过 apt 安装 llama-cpp 包,下载 Qwen3.5 量化模型,并使用 llama-cli 进行命令行交互测试。随后演示如何启动 llama-server 内置的 WebUI 服务,通过浏览器访问本地端口进行对话。全程使用 CPU 后端运行,适合移动端轻量级 LLM 部署。

小熊软糖发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 11 分钟阅读
Linux 部署 OpenClaw 并接入 QQ 机器人指南
Shell / BashNode.jsAI

Linux 部署 OpenClaw 并接入 QQ 机器人指南

介绍在 Debian 12 Linux 环境下,通过安装 Node.js 24 及 nvm 工具,使用官方脚本部署 OpenClaw 框架,配置华为云 MaaS 模型,并安装 QQ 机器人插件完成接入的全过程。涵盖环境准备、服务安装、凭证获取、频道配置及服务验证,支持多平台扩展。

鲜活发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 9 分钟阅读
微信 ClawBot 插件支持个人微信及 Windows 安装方案
Shell / BashNode.jsWeChatAI

微信 ClawBot 插件支持个人微信及 Windows 安装方案

微信官方推出 ClawBot 插件,允许个人微信连接本地 OpenClaw 实现 AI 助手控制。文章介绍了插件功能、Mac 与 Windows 下的安装步骤及差异(Windows 需避开 npx 命令),对比了 ClawBot 与 QClaw 的区别,并说明了当前仅支持文字消息及安全注意事项。

PhpPioneer发布于 2026/4/6更新于 2026/4/133 浏览0 点赞约 9 分钟阅读
Shell / BashNode.jsAI

OpenClaw 桌面自动化 AI 部署与日常使用指南

介绍 OpenClaw 桌面自动化 AI 智能体的部署与使用方法。支持 Windows、macOS 和 Linux 系统,通过命令行一键安装。需配置 Node.js 及大模型 API Key。文章涵盖环境准备、各系统详细部署步骤、Web 面板配置、权限设置以及文件整理、数据处理等日常高频指令示例,并提供常见故障排查方案,帮助用户快速实现电脑自动化操作。

灵魂摆渡发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 8 分钟阅读
Shell / BashAI

Openclaw 结合飞书实现多机器人配置指南

介绍如何在云端部署 Openclaw 并结合飞书配置多个机器人以实现分工协作。主要步骤包括创建飞书企业自建应用获取凭证、启动 Openclaw 服务并创建多个 Agent、通过消息渠道配置绑定 Agent 与飞书机器人、设置事件订阅及测试验证。内容涵盖前置准备、分步操作指南、进阶优化技巧、常见问题排查及常用命令汇总,旨在帮助用户高效实现 AI 自动化办公流程。

竹影清风发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 19 分钟阅读
OpenClaw 本地 AI 助手部署与飞书对接指南
Shell / BashNode.jsAI

OpenClaw 本地 AI 助手部署与飞书对接指南

介绍如何在 Linux 系统下部署开源本地 AI 助手 OpenClaw,并配置飞书机器人实现交互。内容涵盖环境准备(Node.js、Git)、依赖安装、服务启动、Web UI 访问以及飞书开放平台应用创建与回调配置。通过 OAuth 绑定通义千问模型,完成权限设置后即可在飞书端使用 AI 助手进行对话及执行系统命令等操作。

云间漫步发布于 2026/4/6更新于 2026/4/131 浏览0 点赞约 55 分钟阅读
使用闲置 Mac Mini 部署 OpenClaw 打造金融 AI 助手
Shell / BashAI算法

使用闲置 Mac Mini 部署 OpenClaw 打造金融 AI 助手

如何利用闲置 Mac Mini 部署 OpenClaw 系统,构建本地化的金融 AI 助手。内容涵盖环境准备、一键部署脚本执行、AI 模型配置、金融技能包安装以及通信平台(如飞书)接入。文章提供了市场监控自动化、投资研究助手等功能的应用示例,并包含安全维护指南、常见问题解答及进阶定制方法。该方案旨在实现数据私有化、低成本且可扩展的金融分析能力,帮助用户实现 7x24 小时的市场监控与专业分析。

PentesterX发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 10 分钟阅读
阿里云部署 OpenClaw 搭建 24 小时 AI 代理
Shell / BashAI

阿里云部署 OpenClaw 搭建 24 小时 AI 代理

介绍如何在阿里云低成本部署 OpenClaw AI 代理。OpenClaw 支持本地及云端运行,云端部署更安全且便于访问外网。教程对比了阿里云与腾讯云的基础配置,推荐阿里云方案。主要步骤包括购买云主机(2 核 2G)、获取百炼平台 API Key、配置服务器端口及执行初始化命令。完成后即可通过 Web 界面与 AI 代理交互,支持 Bash 指令调用。需注意保护服务器 IP 及 Token 信息,并定期检查系统资源占用。

霸天发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 3 分钟阅读
Mac Big Sur 使用 OpenClaw OpenCode OpenSpec 实现 AI 自动化开发流程
Shell / BashNode.jsAI

Mac Big Sur 使用 OpenClaw OpenCode OpenSpec 实现 AI 自动化开发流程

对 macOS Big Sur 系统无法原生运行 OpenCode 的问题,提出基于 Docker 容器化的解决方案。通过构建 Linux 版 OpenCode 镜像并映射端口,结合宿主机上的 OpenClaw 与 OpenSpec,实现了从需求分析到代码落地的全自动化 AI 开发流水线。该方案有效规避了系统库兼容性问题,支持资源隔离与可控,使旧版 Mac 用户也能体验前沿的 AI 编程辅助工具链。

DotNetGuy发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 18 分钟阅读
本地 AI 服务远程管理的加密隧道解决方案
Shell / BashAI

本地 AI 服务远程管理的加密隧道解决方案

探讨了在本地部署 AI 服务时面临的远程访问难题,对比了端口映射和 VPN 方案的不足,提出利用 P2P 虚拟组网技术构建加密隧道的解决方案。通过实例演示了如何安装客户端、配置虚拟局域网,实现无需公网 IP 的安全远程管理,保障数据传输隐私并降低延迟。

灰度发布发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 6 分钟阅读
Shell / BashAI算法

Llama-3.2-3B Ollama 部署及 GPU 加速配置指南

如何在 Ollama 中部署 Llama-3.2-3B 模型并启用 NVIDIA GPU 加速。内容包括环境检查(驱动、CUDA、Ollama 版本)、关键配置(OLLAMA_NUM_GPU)、性能对比测试以及常见问题排查(显存溢出、Docker 部署等)。通过设置环境变量,可显著提升推理速度,实现从 CPU 到 GPU 的高效切换,适用于本地大模型运行场景。

晚风告白发布于 2026/4/6更新于 2026/4/132 浏览0 点赞约 19 分钟阅读
上一页第 8 / 45 页下一页