豆包AI视频去水印,我试了几个简单方法,手机就能搞定

首选方案:微信小程序一键解析(免费便捷)

豆包AI生成的视频带水印,想保存个干净版其实没那么麻烦。我最近找到一个挺省事的办法,不用下载软件,也不用注册登录,全程在手机上操作,不占内存,画质也没影响。

具体操作就三步:

  1. 在豆包APP里找到想保存的视频,点右上角的“分享”按钮,左滑功能栏找到“更多”,然后选“复制视频链接”。不同手机界面可能不太一样,有的直接显示“复制链接”,有的是个网址,点旁边的复制标志就行。
  2. 打开微信,在微信中搜索并打开一款去水印小程序,如“‌图视去水印‌”、“‌兜宝去水印‌”,进去后把刚才复制的链接粘贴进去,点解析,几秒钟就能处理好。
  3. 解析成功后直接下载,无水印的视频就存到手机相册里了。整个过程一分钟都用不了。

这类工具能处理的不止豆包

我试了一下,这种小程序对即梦AI、千问这些AI平台生成的水印也能处理,抖音、快手、小红书、B站这些常见短视频平台的水印也支持。大部分都不限次数,画质也挺清晰,偶尔遇到一次解析失败的,重新操作一遍基本都能成功。

其他方案:

根据设备条件和水印复杂程度,您也可以选择以下方法。

  • 专业软件处理‌:如果视频水印复杂(如动态水印),或需要在电脑上批量处理,可使用‌HitPaw Watermark Remover‌、‌Inpaint‌等专业软件。它们能进行更精细的区域选择和AI填充,但通常需要付费或学习成本。‌‌1‌‌8
  • 豆包App内置功能‌:部分版本的豆包App中,“‌AI编辑‌”里的“‌变清晰‌”功能可能在提升画质的同时弱化水印,但这并非官方去水印功能,效果不保证。‌‌4‌‌8
  • 视频编辑遮盖‌:对于固定在角落的水印,可以使用“剪映”等视频编辑软件,通过‌画面裁剪‌或添加‌贴纸遮盖‌来物理去除,但会损失部分画面或非永久去除。‌‌

Read more

LLaMA-Factory自定义评估指标完整实现指南

LLaMA-Factory自定义评估指标完整实现指南 在大型语言模型(LLM)微调过程中,准确评估模型性能是至关重要的环节。LLaMA-Factory作为一款功能强大的LLM微调框架,提供了灵活的评估机制,支持用户根据具体需求快速实现自定义评估指标。本文将详细介绍如何在该框架中构建完整的自定义评估流程。 评估框架核心架构解析 LLaMA-Factory的评估系统基于模块化设计,主要组件包括评估器、模板处理器和指标计算器。评估器位于src/llamafactory/eval/evaluator.py,负责整个评估流程的协调执行。模板系统定义在src/llamafactory/eval/template.py中,负责数据格式的统一处理。 现有评估机制深度分析 当前框架默认支持分类任务的准确率评估,通过比较模型预测结果与真实标签来计算性能指标。评估过程包括数据加载、模型推理、结果比较和指标计算四个主要阶段。在Evaluator类的eval方法中,可以看到核心的评估逻辑实现: # 现有准确率计算逻辑 correct_predictions = np.array(predict

无需人工标注即可操控安卓应用:AndroidGen-Llama-3-70B重新定义移动智能交互

导语 【免费下载链接】androidgen-llama-3-70b 项目地址: https://ai.gitcode.com/zai-org/androidgen-llama-3-70b 智谱AI开源的AndroidGen-Llama-3-70B模型,首次实现大语言模型在安卓系统全场景的自主任务执行,无需人工标注交互数据即可操控消息、时钟、邮件等应用,为移动智能体开发突破数据稀缺瓶颈提供新路径。 行业现状:移动AI的"数据困境" 当前移动智能体(Agent)开发面临三大挑战:场景多样性要求模型具备跨应用泛化能力,复杂任务需多步骤精准规划,数据过滤与标注成本占开发总成本的60%以上。传统方法依赖人工标注的交互轨迹数据,在面对安卓系统中200+常用应用、10万+可能操作组合时,数据采集效率与标注质量成为难以逾越的瓶颈。 与此同时,2025年被业内称为AI Agent的"快速发展时期"。从2023年AutoGPT开启智能体序幕以来,AI Agent作为新一代智能交互范式,展现出前所未有的发展活力。据Canalys预测,2025年全球AI手机渗透率将达34%,并将于2027年提升至

Stable Diffusion:AI人工智能图像生成的变革者

Stable Diffusion:AI人工智能图像生成的变革者 关键词:Stable Diffusion,AI图像生成,扩散模型,深度学习,图像合成 摘要:本文深入探讨了Stable Diffusion在AI人工智能图像生成领域的变革性作用。从其背景知识入手,详细阐述了核心概念、算法原理、数学模型,通过项目实战展示其具体应用,分析了实际应用场景,并推荐了相关的工具和资源。最后对Stable Diffusion的未来发展趋势与挑战进行总结,同时解答了常见问题,为读者全面了解这一前沿技术提供了系统的知识体系。 1. 背景介绍 1.1 目的和范围 随着人工智能技术的飞速发展,图像生成领域取得了显著的进展。Stable Diffusion作为其中的佼佼者,引发了广泛的关注。本文的目的在于全面介绍Stable Diffusion的原理、应用和发展前景,帮助读者深入理解这一技术。范围涵盖了从基础概念到实际应用的各个方面,包括算法原理、数学模型、项目实战以及未来趋势等。 1.2 预期读者 本文预期读者包括对人工智能、图像生成技术感兴趣的科研人员、开发者、学生以及相关行业的从业者。无论

HY-MT1.5-1.8B在llama.cpp上的优化部署

HY-MT1.5-1.8B在llama.cpp上的优化部署 1. 背景与技术定位 随着多语言通信需求的快速增长,轻量级、高效率的神经翻译模型成为边缘设备和移动端部署的关键。传统大模型虽具备强大翻译能力,但受限于显存占用高、推理延迟大,难以在资源受限设备上运行。在此背景下,HY-MT1.5-1.8B应运而生。 HY-MT1.5-1.8B 是腾讯混元于 2025 年 12 月开源的轻量级多语神经翻译模型,参数量为 18 亿(1.8B),主打“手机端 1 GB 内存可跑、速度 0.18 s、效果媲美千亿级大模型”。该模型不仅覆盖 33 种主流语言互译,还支持藏语、维吾尔语、蒙古语等 5 种民族语言或方言,填补了小语种高质量自动翻译的技术空白。 其核心设计目标是实现极致的效率与质量平衡: