千寻智能融资近20亿,荣耀进军机器人,智平方成为百亿具身智能独角兽,华为云发布具身智能平台

千寻智能融资近20亿,荣耀进军机器人,智平方成为百亿具身智能独角兽,华为云发布具身智能平台

千寻智能完成近20亿元融资,估值破百亿,领跑具身大模型

具身智能企业千寻智能宣布完成近 20 亿元融资,估值突破百亿元,成为赛道新晋独角兽。资金将用于Spirit v1.5 具身大模型迭代、硬件量产与工业场景落地。

其自研 “小墨” 人形机器人已在宁德时代产线稳定作业,电池插接成功率达 99%,作业效率比肩熟练工人,标志具身智能从实验室走向规模化量产。

荣耀官宣进军人形机器人,首款消费级产品将亮相MWC

荣耀正式宣布切入具身智能赛道,首款消费级人形机器人将于 MWC 2026 全球首发,同步推出带机械臂云台的 Robot Phone 手机终端。

该机器人聚焦家庭与日常交互场景,融合端侧 AI 与多模态感知,实现手机与机器人协同,打造 “移动具身智能” 新形态,加速消费级市场普及。

智平方完成超10亿元B轮融资,深圳诞生百亿具身智能独角兽

深圳智平方宣布完成超 10 亿元 B 轮系列融资,成为深圳首个百亿估值具身智能独角兽。企业坚持端到端大模型路线,深耕生产力型通用机器人。

依托 GOVLA 具身大模型与全链条量产能力,产品已在工业、服务场景落地,推动国产具身智能从 “炫技” 转向实用化、商业化。

华为云发布具身智能使能平台,降低企业开发与部署门槛

华为云正式推出具身智能一体化使能平台,整合算力、大模型、感知控制与行业方案,面向制造、物流、康养等场景提供一站式开发工具。

平台支持快速适配机器人本体,缩短场景落地周期,助力中小企业低成本接入具身智能,构建云边端协同的产业生态。

Read more

【GitHub开源AI精选】WhisperX:70倍实时语音转录、革命性词级时间戳与多说话人分离技术

【GitHub开源AI精选】WhisperX:70倍实时语音转录、革命性词级时间戳与多说话人分离技术

系列篇章💥 No.文章1【GitHub开源AI精选】LLM 驱动的影视解说工具:Narrato AI 一站式高效创作实践2【GitHub开源AI精选】德国比勒费尔德大学TryOffDiff——高保真服装重建的虚拟试穿技术新突破3【GitHub开源AI精选】哈工大(深圳)& 清华力作 FilmAgent:剧本自动生成 + 镜头智能规划,开启 AI 电影制作新时代4【GitHub开源AI精选】Lumina - Image 2.0 文生图模型,以小参数量实现高分辨率多图生成新突破5【GitHub开源AI精选】探索 Mobile-Agent:X-PLUG 推出的创新型移动智能操作代理6【GitHub开源AI精选】吴恩达团队开源VisionAgent:用自然语言开启计算机视觉新时代7【GitHub开源AI精选】Oumi:一站式AI开发平台,涵盖训练、评估与部署全流程8【GitHub开源AI精选】深入剖析RealtimeSTT:开源实时语音转文本库的强大功能与应用9【GitHub开源AI精选】PodAgent:多智能体协作播客生成框架,

让工作效率翻倍的终极神器之被工具定义的编程时代(VS Code + GitHub Copilot + JetBrains全家桶)

让工作效率翻倍的终极神器之被工具定义的编程时代(VS Code + GitHub Copilot + JetBrains全家桶)

目录 * 一、引言:被工具定义的编程时代 * 二、背景:传统开发模式的效率瓶颈 * 2.1 认知负荷过载 * 2.2 工具链断层 * 三、效率翻倍工具链深度解析 * 3.1 智能代码编辑器:从打字机到智能助手 * 3.2 版本控制大师:Git的隐藏技能 * 3.3 自动化脚本:解放生产力的魔法 * 3.4 协作平台:从信息孤岛到知识网络 * 四、工具链选型方法论 * 4.1 效率评估模型 * 4.2 定制化策略 * 五、总结:工具是能力的延伸 一、引言:被工具定义的编程时代 在GitHub Copilot单月生成代码量突破10亿行的今天,开发者早已告别“记事本+命令行”

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入

VSCode Copilot 终极魔改:以智谱 GLM-5.1 为例,一文搞定任意大模型接入 前言:为何你的 Copilot 需要一次“魔改”? 本文旨在帮助所有希望突破 VSCode Copilot 模型限制、追求更高代码效率和性价比的开发者。如果你也曾面临以下困境,那么这篇文章就是为你量身打造的: * Copilot 官方模型不够用:想尝试最新、最强的国产模型(如智谱 GLM、文心一言、Kimi)却无从下手。 * API 订阅成本高:官方或其他国外模型的订阅费和按量计费(通常以美元结算)让个人开发者望而却步。 * 替代品体验有瑕疵:其他辅助插件在某些场景下不如原生的 Copilot 轻便、流畅。 本文将提供一个终极解决方案:通过一个 VSCode 插件,无缝接入任何支持 OpenAI 兼容接口的大模型。我将以当前备受瞩目的国产模型智谱 GLM-5.1 为例,

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

Qwen3.5-4B 微调实战:LLaMA-Factory 打造医疗AI助手

最近在帮一个医疗创业团队做技术支持,他们想把通用大模型改造成能回答专业医疗问题的智能助手。今天就把整个过程整理出来,希望对有类似需求的朋友有所帮助。 核心工具链:LLaMA-Factory + Qwen3.5-4B + 医疗问答数据集 Qwen3.5 是阿里最新发布的千问系列模型,4B 参数量刚好卡在"效果够用 + 显存友好"的甜蜜点;LLaMA-Factory 则是目前开源社区最成熟的微调框架,上手简单,坑也相对少。 准备工作 先说硬件要求。4B 模型用 LoRA 微调的话,一张 12GB 显存的显卡就够了(比如 RTX 4070)。如果手头只有 8GB 显存的卡,可以上 QLoRA 量化方案,牺牲一点精度换显存空间。 微调方式 4B 模型显存需求 推荐显卡 LoRA (16-bit) ~10-12 GB