在 Windows 上安装和编译 llama.cpp

在 Windows 上安装和编译 llama.cpp

1.1 环境准备

1.1.1 安装mingw

下载地址:mingw-builds-binaries

在这里插入图片描述

解压后,将 bin 目录加入环境变量,例如:E:\dev\mingw64\bin

验证安装是否成功:

g++ -v

1.1.2 安装w64devkit

下载地址:w64devkit Releases

在这里插入图片描述

解压后,将 bin 目录添加到系统环境变量,例如:E:\dev\w64devkit\bin

1.1.3 安装 CMake

访问 CMake 官网,下载 Windows x64 ZIP(注意:不是安装包)。

在这里插入图片描述

解压后,将 bin 目录添加到环境变量,例如:E:\dev\cmake-4.0.3-windows-x86_64\bin

验证是否成功:

cmake --version

2.2 克隆 llama.cpp

git clone https://github.com/ggerganov/llama.cpp 

3.3 编译

3.3.1 使用 CMake 构建(新版)

说明:llama.cpp 官方已废弃原来的 Makefile 构建方式,推荐改用 CMake 构建方式 来编译模型工具和推理引擎。

编译 llama.cpp:

如果本地有安装Visual Studio,推荐使用 Visual Studio + CMake 进行构建(适用于 Windows 用户,兼容性最佳):
cd path/llama.cpp mkdir build cd build # 使用 Visual Studio 生成项目 cmake ..-G "Visual Studio 17 2022"-A x64 -DLLAMA_CURL=OFF # 或 使用 w64devkit和mingw 生成项目 cmake ..-G "MinGW Makefiles"-DLLAMA_CURL=OFF # 编译 Release 模式 cmake --build .--config Release 

如果一切正常,你会在 build/bin/Release 目录下看到生成的程序。

Read more

AI调参技巧:贝叶斯优化Optuna

AI调参技巧:贝叶斯优化Optuna

AI调参技巧:贝叶斯优化Optuna 📝 本章学习目标:本章聚焦性能优化,帮助读者提升模型效率。通过本章学习,你将全面掌握"AI调参技巧:贝叶斯优化Optuna"这一核心主题。 一、引言:为什么这个话题如此重要 在人工智能快速发展的今天,AI调参技巧:贝叶斯优化Optuna已经成为每个AI从业者必须掌握的核心技能。Python作为AI开发的主流语言,其丰富的生态系统和简洁的语法使其成为机器学习和深度学习的首选工具。 1.1 背景与意义 💡 核心认知:Python在AI领域的统治地位并非偶然。其简洁的语法、丰富的库生态、活跃的社区支持,使其成为AI开发的不二之选。掌握Python AI技术栈,是进入AI行业的必经之路。 从NumPy的高效数组运算,到TensorFlow和PyTorch的深度学习框架,Python已经构建了完整的AI开发生态。据统计,超过90%的AI项目使用Python作为主要开发语言,AI岗位的招聘要求中Python几乎是标配。 1.2 本章结构概览 为了帮助读者系统性地掌握本章内容,我将从以下几个维度展开: 📊 概念解析 → 原理推导 → 代

OpenViking实战:字节跳动开源AI代理上下文数据库部署与应用全指南

OpenViking实战:字节跳动开源AI代理上下文数据库部署与应用全指南

一、项目概述 OpenViking是字节跳动开源的AI代理上下文数据库,专门解决复杂AI代理系统中的上下文管理难题。传统RAG方案在长期、多步骤任务中面临成本高、效率低的问题,OpenViking通过文件系统范式和三层加载策略,显著提升性能并降低成本。本文将详细讲解OpenViking的部署、配置和实战应用。 二、环境准备 2.1 系统要求 * 操作系统:Linux/Windows/macOS(推荐Ubuntu 22.04+) * 内存:至少8GB RAM(生产环境建议16GB+) * 存储:50GB可用空间 * 网络:可访问Docker Hub和GitHub 2.2 依赖安装 # 安装Python 3.9+sudoapt update sudoaptinstall python3.9 python3.9-venv python3.9-dev # 安装Dockercurl-fsSL https://get.

OpenClaw厂商全对比:2026主流AI智能体平台深度横评

OpenClaw厂商全对比:2026主流AI智能体平台深度横评

引言:从开源标杆到厂商混战,OpenClaw开启AI行动时代 2026年,AI行业迎来了从“文本对话”到“自主执行”的关键跃迁,OpenClaw凭借开源、可本地部署、支持多模型多平台接入的核心优势,迅速成为AI智能体(AI Agent)领域的标杆项目,短短数月内在GitHub斩获超25万星标,成为全球关注度最高的开源项目之一。OpenClaw本质是一套AI智能体网关,相当于AI员工的操作系统,能打通各类通讯工具、办公软件、本地设备,让AI不再局限于聊天,而是真正完成自动化任务、执行复杂指令、处理长流程工作。 随着OpenClaw爆火,海内外科技厂商纷纷跟进,推出自研版Claw产品,既有坚守开源的原生项目,也有大厂优化的商用版本,还有轻量化、企业级、移动端等差异化产品。市面上OpenClaw衍生产品繁多,普通用户、开发者、企业往往难以分辨差异,盲目选型容易出现门槛过高、成本超标、功能不匹配等问题。 本文精选市面上10款主流OpenClaw厂商产品,覆盖开源原生、大厂商用、轻量化极简、企业级定制四大品类,从核心定位、技术架构、部署难度、

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案

欢迎加入开源鸿蒙跨平台社区:https://openharmonycrossplatform.ZEEKLOG.net Flutter 组件 sse_stream 的适配 鸿蒙Harmony 深度进阶 - 驾驭高并发 Server-Sent Events 背压处理、实现鸿蒙端工业级 AI 响应流与长效链路治理方案 前言 在前文我们初步探讨了 sse_stream 在鸿蒙(OpenHarmony)端的连接实战。但在面临真正的工业级挑战——例如在大模型 AI(如 DeepSeek)生成每秒数百字的超高频反馈,或者是在证券系统中上千个标的实时价格跳动时,简单的“连接并监听”会导致鸿蒙 UI 线程由于疯狂的事件回调而瞬间进入 ANR(应用无响应)黑洞。 如何处理流式数据中的“背压(Backpressure)”?如何在鸿蒙有限的移动端内存中实现高效的报文分拣? 本文将作为 sse_stream 适配的进阶篇,