llama.cpp docker 镜像pull国内加速地址

目前llama cpp官方提供的llama.cpp提供的docker 镜像下载命令:docker pull ghcr.io/ggml-org/llama.cpp:server-cuda-b6222
服务器下载速度非常的慢。

llama.cpp docker image


比较好的方法是把ghcr.io替换为国内镜像源地址ghcr.nju.edu.cn进行下载:

// 官方命令: docker pull ghcr.io/ggml-org/llama.cpp:server-cuda //国内源地址命令 docker pull ghcr.nju.edu.cn/ggml-org/llama.cpp:server-cuda 

速度快了几十倍,非常节约时间 推荐给大家!

Read more

汽车雷达在多径存在下的幽灵目标检测——论文阅读

汽车雷达在多径存在下的幽灵目标检测——论文阅读

汽车雷达在多径存在下的幽灵目标检测 D. Sharif, S. Murtala and G. S. Choi, “A Survey of Automotive Radar Misalignment Detection Techniques,” in IEEE Access, vol. 13, pp. 123314-123324, 2025, doi: 10.1109/ACCESS.2025.3584454. 摘要 共置多输入多输出(MIMO)技术已被广泛应用于汽车雷达系统,因为它能够以相对较少的发射和接收天线数量提供精确的角度估计。由于视距目标的发射方向(DOD)和到达方向(DOA)重合,MIMO信号处理允许形成更大的虚拟阵列用于角度查找。然而,多径反射是一个主要的限制因素,雷达信号可能从障碍物反弹,创建DOD不等于DOA的回波。因此,在具有多个散射体的复杂场景中,目标的直接路径可能被其他物体的间接路径破坏,导致不准确的角度估计或产生幽灵目标。

【征文计划】AR健身教练:形随心动 - 基于Rokid CXR-M SDK的实践落地

【征文计划】AR健身教练:形随心动 - 基于Rokid CXR-M SDK的实践落地

一、项目背景与创意起源 在当今快节奏的都市生活中,健身已成为许多人保持健康的重要方式。然而,居家健身面临一个普遍痛点:缺乏专业指导,容易因动作不规范导致运动损伤,同时低头看手机或平板的体验也大大降低了健身的沉浸感和效率。 根据《2024年中国健身行业白皮书》显示,超过65%的居家健身用户表示"缺乏专业指导"是他们放弃健身的主要原因。而Rokid Glasses作为一款轻量级AR眼镜,其独特的"抬头即见"交互方式,为解决这一问题提供了绝佳的硬件基础。 "形随心动"创意的诞生源于一个简单但关键的观察:如果能将专业教练"投射"到用户视野中,实时指导动作,同时提供直观的数据反馈,那么居家健身体验将发生质的飞跃。通过Rokid CXR-M SDK的AI场景、自定义页面和提词器功能,我们能够实现这一愿景。 二、Rokid CXR-M SDK 相关 1. Rokid

亲测国外清淤机器人:案例分享与实践经验

亲测国外清淤机器人:案例分享与实践经验

亲测国外清淤机器人:案例分享与实践经验 引言 随着环保意识的提升和工业技术的发展,清淤机器人在化工厂、钢铁冶金、污水处理厂等领域的应用越来越广泛。本文将通过实际案例分享和实践经验,探讨【清淤机器人】在国内外的应用情况,并重点介绍巴洛仕集团有限公司的清淤机器人产品及其优势。 国外清淤机器人的应用案例 案例一:荷兰阿姆斯特丹港口 荷兰阿姆斯特丹港口是欧洲最大的港口之一,每年有大量的船只进出,导致港口内淤泥堆积严重。为了解决这一问题,港口管理部门引入了某国外品牌的清淤机器人。这款机器人配备了多传感器集成系统,能够精准定位淤泥位置并进行高效清理。经过一段时间的使用,港口的淤泥问题得到了显著改善,大大提高了港口的运营效率。 案例二:美国密歇根湖 美国密歇根湖是五大湖之一,近年来由于工业废水排放和自然沉积,湖底淤泥堆积严重。当地政府采用了一款国外品牌的水下清淤机器人进行清理。这款机器人具有高等级防水设计和可视化影像系统,能够在水下作业,有效避免了人工清淤带来的安全风险。经过多次作业,湖底淤泥得到了有效清理,水质也有了明显改善。 巴洛仕集团有限公司的清淤机器人 产品特点 巴

DeepSeek-R1对话机器人体验:开箱即用的私有化AI解决方案

DeepSeek-R1对话机器人体验:开箱即用的私有化AI解决方案 你是不是也遇到过这样的场景:想在内部系统里嵌入一个智能问答助手,又担心把敏感业务数据传到公有云?想给团队配个本地AI工具,可一查显卡要求——7B模型要8GB显存,14B直接奔着24GB去,手头那台办公机连模型加载都卡在半路;更别说还要装CUDA、配PyTorch版本、调device_map、写推理脚本……最后发现,部署AI比写需求文档还费劲。 别折腾了。今天带你体验一款真正“拆箱即用”的本地对话机器人——它不联网、不上传、不依赖云端API,1.5B超轻量模型跑在普通RTX 3060(12GB)甚至RTX 2060(6GB)上都丝滑流畅,界面像微信聊天一样自然,所有操作点点鼠标就能完成。这不是概念演示,而是已验证落地的私有化AI方案。 这篇文章专为技术决策者、运维工程师和一线开发者设计。我会从真实部署视角出发,不讲抽象架构,只说你关心的事:它到底占多少显存?第一次启动要等多久?输入一个问题后几秒出结果?思考链能不能看懂?清空对话会不会残留GPU内存?所有答案都来自实测,附带可复现的操作路径和关键参数说明。 我们使