昇腾设备部署llama.cpp

硬件环境:

Atlas 800I A2

CPU:KunPeng920 * 192

NPU:Atlas 910B4-1 * 8

内存:1000G

软件环境

操作系统:OpenEuler22.03 LTS

内核:5.10.0-186.0.0.2.1.oe2203sp3.galaxy.aarch64

驱动:24.1.rc2

docker:26.1.3

为了不影响物理环境,安装是在docker容器环境中进行,

由于目前llama.cpp只支持openeuler22.03和ubuntu 22.04,可以下载一个对应操作系统的镜像

此处以vllm-ascend:0.9.1rc1-torch_npu2.5.1-cann8.1.rc1-python3.10-oe2203lts-linuxarm64镜像为例

拉取镜像:

docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/openeuler/vllm-ascend:0.9.1rc1-torch_npu2.5.1-cann8.1.rc1-python3.10-oe2203lts-linuxarm64

支持Atlas 300I Duo Atlas 300T A2(Ascend 910B4)

起容器:

docker run -it -d --net=host --shm-size=500g \ --privileged \ --name vllm-ascend \ --device=/dev/davinci_manager \ --device=/dev/hisi_hdc \ --device=/dev/devmm_svm \ -v /usr/local/Ascend/driver:/usr/local/

Read more

AI大模型全场景使用技巧指南

前言:AI大模型的核心价值与使用现状 AI大模型(如ChatGPT、文心一言、通义千问、Claude等)是基于海量数据训练的生成式人工智能,具备自然语言理解、内容创作、逻辑推理、多任务处理等核心能力,已广泛应用于工作、学习、创作、科研、生活等多个场景。 然而,多数用户使用AI大模型时存在“使用率低、效果差、效率低”的问题:要么只会简单提问(如“写一篇作文”),得到的结果泛泛而谈;要么因提问方式不当,导致模型误解需求;要么不知道如何利用模型解决复杂问题。 本指南从“基础操作-进阶提效-场景深耕-高级技巧-避坑指南-工具适配”六大维度,系统拆解AI大模型的使用技巧,覆盖普通用户、职场人、学生、创作者、科研人员等不同人群,提供可直接复用的提问模板、操作流程、优化方法,帮你从“会用”到“用好”,让AI大模型成为高效助手。 第一部分:基础操作技巧(入门必学,

MCP应用:cursor+hexstrike-ai的安全实战

MCP应用:cursor+hexstrike-ai的安全实战

一、什么是 MCP?AI 的"操作系统接口" MCP(Model Context Protocol,模型上下文协议)是一个标准化的通信协议,旨在解决 AI 模型与外部工具之间的交互难题。简单来说,它可以被理解为AI 的"操作系统接口",让 AI 能够像人类一样使用计算机中的各种工具和服务。 核心价值: * 统一接口:不同工具使用同一种"语言"与 AI 交流 * 扩展能力:AI 不再局限于文本生成,可以操作文件、查询数据库、控制浏览器等 * 安全隔离:通过中间层访问,避免 AI 直接操作系统资源 二、MCP 的核心组件:三方协作架构

AI赋能视频创作:蓝耘MaaS与海螺AI技术的深度融合

AI赋能视频创作:蓝耘MaaS与海螺AI技术的深度融合

云边有个稻草人-ZEEKLOG博客 目录 一、蓝耘MaaS平台概述 (1)平台的模块化设计 (2)蓝耘MaaS的灵活性与扩展性 (3)蓝耘MaaS的安全性与隐私保护 二、海螺AI视频模型简介 (1)海螺AI的核心技术 (2)海螺AI的视频生成流程 (3)海螺AI的应用场景 三、在蓝耘Maas平台如何使用海螺AI生成视频 (1)注册蓝耘平台账号 (2)点击MaaS平台 (3)点击视觉模型并选择l2V-01视频模型 (4)体验图片生成视频  四、蓝耘MaaS平台与海螺AI视频模型的结合 (1)高效集成:API调用示例 (2)高级视频生成:基于用户输入的多样化场景和交互 (3)高效视频渲染与优化 正文开始—— 一、蓝耘MaaS平台概述 蓝耘MaaS(Model as a Service)平台是一个基于云端的人工智能服务平台,通过开放API接口和SDK,用户可以轻松调用平台上的AI模型,而无需深入了解底层算法和模型细节。

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的?

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的?

告别“选择困难症”:我是如何用 AI Ping 实现大模型自由,还能省下 50% 成本的? * 写在最前面 * 场景一:从“写脚本卡壳”到“批量生成” * 场景二:开发路上的“万能插头” * 使用感受 * 一点小建议与期待 * 写在最后 🌈你好呀!我是 是Yu欸🚀 感谢你的陪伴与支持~ 欢迎添加文末好友🌌 在所有感兴趣的领域扩展知识,不定期掉落福利资讯(*^▽^*) 写在最前面 版权声明:本文为原创,遵循 CC 4.0 BY-SA 协议。转载请注明出处。 在这个大模型“百花齐放”甚至“百模大战”的时代,作为一名既要写代码开发,又要频繁输出技术内容(写博文、做视频)的开发者,我每天最大的烦恼就是: “今天这个任务,