PPIO x MosuMosu:用 AI Copilot 重新定义年轻人的追星体验

PPIO x MosuMosu:用 AI Copilot 重新定义年轻人的追星体验

2025 年,大模型能力的突破正在催生一个全新的 AI Native 创业时代,新的 AI 公司在这一波技术蜕变中被快速孵化。

大模型不是在修补旧流程,而是把产品、业务乃至组织方式都重新想象。昨天还不切实际的方向,如今在模型推理成本下降、多模态突破、Agentic Infra 不断成熟之后,正在从“看似不可能”转向“正在发生”。

MosuMosu 就是 AI Native 创业浪潮的一员。

跟很多公司想做人人皆可用的大众化 AI 助手不同,MosuMosu 聚焦在一个看似小众却充满热情的市场——Oshikatsu(推活),致力于为追星群体打造下一代 AI Copilot。

为了实现这一目标,MosuMosu 选择与 PPIO 合作,PPIO 为 MosuMosu 提供了强大的算力与模型服务,在垂直文化社区的深度应用开辟了新的道路。

1. 生成式 AI 时代的御宅文化与 Mosumosu

MosuMosu 是成立于 2025 年 1 月的早期 AI 创业公司,团队来自于字节跳动、百度、小红书以及“AI 六小龙”,兼具 Z 世代内容社区与 AI to C 产品经验。

MosuMosu 的愿景是在生成式 AI 时代,重新定义年轻人的追星体验。Oshikatsu——无论是追地下偶像、参与同人活动、还是应援 2.5 次元舞台剧——已经成为日本乃至全球年轻人重要的精神寄托和社交方式。

然而,追星新手往往面临巨大的信息壁垒:活动信息分散在各个平台、圈内规则复杂且不成文、语言和文化障碍让海外粉丝望而却步。一不小心踩雷,不仅浪费时间和金钱,还可能错过珍贵的应援机会。

MosuMosu 正是为了解决这些痛点而生。

MosuMosu 希望成为每一位追星新手的 AI Copilot——帮助用户发现活动、收集偶像情报、提供个性化攻略,让追星变得更轻松、更安心、更有趣。

这需要构建不同层次的 AI 能力:

首先是 AI 情报搜索能力。 基于兴趣的动态内容搜索,通过语音或打字聊天,帮用户跨越语言和文化障碍,找到散落在各平台的活动信息、票务攻略和应援指南。

其次是个性化推荐与避雷。 AI 会学习用户的偏好——喜欢的偶像、常去的场地、预算范围——提供量身定制的活动推荐,并提前预警潜在的"坑"。

最后是情感陪伴功能。 追星是一件充满情绪价值的事。MosuMosu 不只是一个工具,更是一个懂你的 AI 伙伴——你越跟它交互,它越懂你的追星心情。

要想打造这样一个平台,需要足够强大与稳定的算力与 AI 模型能力的支撑。

2. PPIO 的 AI 解决方案

在经过审慎的技术选型后,MosuMosu 决定与 PPIO 合作,PPIO 为其提供完整的 AI 解决方案。

为了打造这样一个“懂追星”的 AI Copilot,MosuMosu 构建了一个多模态检索系统,将其视为"左脑"和"右脑"的组合。

左脑负责理性部分,需要充分了解追星世界的知识。通用的 AI 模型虽然强大,但无法深入理解地下偶像、同人文化这些特定的圈层。因此,需要专门训练一个垂类世界模型,让 AI 足够“懂”这个领域的活动规则、圈内黑话和文化语境。

右脑负责感性部分,负责理解用户的情感和个人信息,包括历史喜好、追星记录、喜欢的偶像类型、常参与的活动等。通过构建个性化行为建模的小模型,让模型更懂用户偏好。

左右脑的结合共同构建一个“多模态检索系统”,帮助用户在海量信息中精准找到自己需要的内容。

为了构建这样的多模态检索系统,PPIO 为 MosuMosu 提供了强大的 GPU 云算力与模型 API 服务。

PPIO GPU 容器实例在标准容器云平台上集成了 GPU 加速卡,提供超强计算能力的同时,保持灵活启动和按需使用的特性,适合 AI 训练、AI 推理等场景。

PPIO 模型 API 服务是面向企业客户与开发者推出的高性能推理服务平台,提供稳定、低延迟、高性价比的大语言模型与多模态模型调用能力。

通过与 PPIO 的合作,MosuMosu 快速推出了 MVP(最小可行性产品),目前已聚焦日本地下偶像市场,未来将逐步拓展至同人活动、2.5 次元舞台剧等更多追星场景。

结语

与 MosuMosu 的合作是 PPIO 的 AI 云服务在垂直文化领域应用的一次成功典范。它不仅展示了顶尖 AI 技术在理解和赋能小众文化圈层方面的巨大潜力,也为 MosuMosu 这样的 AI 初创公司快速开发与运营产品提供了坚实的助力。

未来,PPIO 将继续深化与 MosuMosu 等创新企业的合作,共同探索 AI 在更多元、更丰富的文化场景中的应用,用技术的力量连接每一个独特的兴趣世界。

如果你想进一步了解 PPIO 企业级 AI 产品的权益与报价,可查询官网PPIO

Read more

Whisper语音识别避坑指南:从安装到部署常见问题全解

Whisper语音识别避坑指南:从安装到部署常见问题全解 你是不是也遇到过这样的情况:满怀期待地部署Whisper语音识别服务,结果卡在FFmpeg找不到、GPU显存爆了、端口被占用……别急,这篇文章就是为你准备的。我们不讲大道理,只聊实战中踩过的坑和对应的解决方案。 本文基于 Whisper-large-v3 多语言语音识别 Web 服务镜像(由113小贝构建),结合真实部署经验,手把手带你绕开那些让人抓狂的“小问题”。无论你是第一次接触语音识别,还是已经折腾了一整天却始终无法启动服务,这篇避坑指南都能帮你快速上路。 1. 环境准备:别让基础配置拖后腿 1.1 硬件要求不是“建议”,是底线 先说清楚:Whisper large-v3 模型对硬件有硬性要求,不是“推荐”那么简单。这个模型参数量高达1.5B,加载一次就要吃掉近3GB显存,推理过程还会持续占用资源。 资源最低要求推荐配置GPURTX 3090 (24GB)RTX 4090 D (23GB+)内存16GB32GB存储10GB可用空间SSD

InstructPix2Pix效果实测:结构保留能力 vs Stable Diffusion 图生图对比

InstructPix2Pix效果实测:结构保留能力 vs Stable Diffusion 图生图对比 1. 为什么说InstructPix2Pix是真正的“魔法修图师” 你有没有过这样的经历:想把一张照片里的白天改成夜晚,或者给朋友P一副墨镜,又或者让一张普通街景变成雨天氛围——但打开PS,面对层层叠叠的图层和蒙版,最后只留下满屏困惑?传统图像编辑工具需要你懂色彩曲线、图层混合模式、甚至手绘遮罩;而Stable Diffusion这类图生图模型,又常常让人陷入“写对Prompt像解谜”的困境:多加一个词,画面就崩掉;少写一个细节,AI就自由发挥到千里之外。 InstructPix2Pix不一样。它不把你当设计师,也不把你当咒语学徒,而是直接把你当“导演”——你只需要用日常英语说出想法,它就照着执行,而且几乎不会跑偏。 这不是滤镜,不是风格迁移,更不是粗暴重绘。它像一位经验丰富的修图老手,先仔仔细细看清原图里每一条轮廓线、每一个人物姿态、每一处光影关系,再只动你点名要改的那一小块。你让它“add sunglasses”,它不会顺手把人脸拉长、把背景重画一遍;你让它“

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

【AIGC】ChatGPT 实用技巧:文本与数据的结构化方法全解析

博客主页: [小ᶻ☡꙳ᵃⁱᵍᶜ꙳]本文专栏: AIGC |ChatGPT 文章目录 * 💯前言 * 💯中文排版序号 * 1. 一级标题(First-Level Title) * 2. 二级标题(Second-Level Title) * 3. 三级标题(Third-Level Title) * 4. 四级标题(Fourth-Level Title) * 💯Markdown 语法 * 一级标题(First-Level Heading) * 二级标题(Second-Level Heading) * 子标题(Subheadings) * 列表(Lists) * 无序列表 * 有序列表 * 加粗和斜体(Bold and Italics) * 加粗 * 斜体 * 💯编程语法也是结构化 * YAML 语法结构的例子 * 1. 层级关系(

llama.cpp加载多模态gguf模型

llama.cpp预编译包还不支持cuda12.6 llama.cpp的编译,也有各种坑 llama.cpp.python的也需要编译 llama.cpp命令行加载多模态模型 llama-mtmd-cli -m Qwen2.5-VL-3B-Instruct-q8_0.gguf --mmproj Qwen2.5-VL-3B-Instruct-mmproj-f16.gguf -p "Describe this image." --image ./car-1.jpg **模型主gguf文件要和mmporj文件从一个库里下载,否则会有兼容问题,建议从ggml的官方库里下载 Multimodal GGUFs官方库 llama.cpp.python加载多模态模型 看官方文档 要使用LlamaChatHandler类,官方已经写好了不少多模态模型的加载类,比如qwen2.5vl的写法: from llama_cpp import Llama