【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

【AIGC前沿】MiniMax海螺AI视频——图片/文本生成高质量视频

目录

1.MiniMax海螺AI视频简介

2.使用教程


1.MiniMax海螺AI视频简介

海螺视频,作为 MiniMax 旗下海螺 AI 平台精心打造的 AI 视频生成工具,致力于助力用户产出高品质视频内容。该工具依托 abab-video-1 模型,具备强大的文生视频功能。用户仅需输入关键词或简短语句,海螺视频就能据此创作出情节丰富的完整视频。此外,海螺视频运用 DiT 架构,能够精准模拟现实世界的物理规律,尤其在生成复杂场景与高动作场景时,展现出卓越的性能。

2.使用教程

点击如下链接,进入蓝耘元生代智算云平台主页

https://cloud.lanyun.net/#/registerPage?promoterCode=11f606c51e

点击主页上方栏的“MaaS平台”

然后点击左侧栏的“视觉模型” 

可以看到可以免费体验一次I2V-01图片生成视频 

点击如下红框处将图片上传 

例如输入如下的图片

例如想让小狗动起来,可以在如下红框处输入相应的指令,然后点击立即生成 , 等待一段时间后,视频即可生成出来

视觉模型API

Video Generation(视频生成)

该API支持基于用户提供的prompt、首帧图片、主体参考图片,生成720p,25帧的动态视频。

该接口采用异步调用的方式完成视频生成:首先创建视频生成任务,对应接口会返回任务ID(task_id);接下来,在异步任务查询接口通过任务 ID (task_id),获取视频生成任务的状态,以及生成的视频的文件ID(file_id)。

API说明

完成视频生成及下载,使用到三个API:创建视频生成任务、查询视频生成任务状态文件管理。具体步骤如下:

1.使用创建视频生成任务接口,创建视频生成任务,并得到task_id;

2.使用查询视频生成任务状态接口,基于task_id查询视频生成任务状态;当状态为成功时,将获得对应的文件 ID(file_id);

3.使用文

Read more

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战

从零到一:Ubuntu上llama.cpp的编译艺术与性能调优实战 在人工智能技术快速发展的今天,大型语言模型(LLM)已成为开发者工具箱中不可或缺的一部分。而llama.cpp作为一款高效、轻量级的LLM推理框架,因其出色的性能和跨平台支持,越来越受到开发者的青睐。本文将带您深入探索在Ubuntu环境下编译和优化llama.cpp的全过程,从基础环境搭建到高级性能调优,为您呈现一套完整的解决方案。 1. 环境准备与基础编译 在开始编译llama.cpp之前,我们需要确保系统环境满足基本要求。Ubuntu 22.04 LTS是最推荐的系统版本,它提供了稳定的软件包支持和良好的兼容性。 首先更新系统并安装必要的开发工具: sudo apt update && sudo apt upgrade -y sudo apt install -y build-essential cmake git curl libcurl4-openssl-dev 对于希望使用CUDA加速的用户,还需要安装NVIDIA驱动和CUDA工具包: sudo apt install

LLaMA-Factory评估指标实战:困惑度与BLEU分数深度解析

LLaMA-Factory评估指标实战:困惑度与BLEU分数深度解析 还在为LLM微调后的模型质量评估发愁吗?🤔 作为AI开发者和研究者,我们常常面临这样的困境:训练损失下降明显,但实际生成效果却让人失望。今天,我将带你深度解析LLaMA-Factory中的两大核心评估指标——困惑度(PPL)与BLEU分数,让你从"盲调"走向"精调"! 🎯 评估指标:模型优化的"导航仪" 在LLaMA-Factory微调框架中,评估指标就像GPS导航系统,实时告诉我们模型的学习状态和优化方向。困惑度衡量模型对文本序列的预测能力,数值越低越好;而BLEU分数则评估生成文本与参考文本的相似度,分数越高质量越优。 评估指标应用场景速览 场景类型推荐指标理想范围关键影响因素预训练任务困惑度<20数据质量、模型架构文本生成BLEU-420-40解码策略、训练数据量多轮对话综合评估多维度上下文理解能力 🚀 困惑度计算:从原理到实践 困惑度是评估语言模型性能的重要指标,它反映了模型预测下一个词的不确定性程度。简单来说,困惑度越低,模型对文本的理解就越准确。 困惑度计算技术内幕 在

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

【AIGC】COT思维链:让AI学会拆解问题,像人一样思考

COT思维链 * 引言 * 理解实践 * 存疑例子 * COT解决 * 内置COT * COT的优势 * COT的未来展望: * 结语 引言 在人工智能领域,我们一直在追求让机器像人类一样思考。然而,即使是最先进的AI,也常常被诟病缺乏“常识”,难以理解复杂问题,更不用说像人类一样进行逻辑推理和解决问题了。最经常的表现就是遇到不会的地方,或者一些人一眼能看出来的地方AI在那里胡扯。 为了解决这个问题,一种名为“思维链(Chain of Thought, COT)”的技术应运而生。COT的核心思想是:将复杂问题分解成一系列简单的子问题,并逐步推理出最终答案。 这就像人类在解决问题时,会先将问题拆解成一个个小步骤,然后一步步推理,最终得出结论。 理解实践 存疑例子 为了理解COT我们先来看个例子。经典的数strawberry里面的r有几个 from langchain_openai import ChatOpenAI from langchain.chains import LLMChain from

文心一言和通义千问大模型

序号 考察能力 题目 回复 评价 1 逻辑推理 一个人带一只黄狗、一只白兔和一颗白菜过河,河边只有一条小船,此人每次只能带一样东西过河,如果此人不在,黄狗要咬白兔,白兔要啃白菜。请想一想:既不让黄狗咬白兔,又不让白兔啃白菜,该怎么设计过河方案 1. 文心一言大模型: 2. 第一步:人带着白兔过河,然后人独自返回。此时河对岸只有白兔,这边剩下黄狗和白菜,两者不会互相影响。第二步:人带着黄狗过河,到达对岸后,带着白兔返回。若不带走白兔,黄狗会咬白兔,所以必须将白兔带回来;此时河对岸只有黄狗,这边有白兔和白菜。第三步:人带着白菜过河,然后人独自返回。此时河对岸是黄狗和白菜,两者不会互相影响,这边只剩下白兔。第四步:人带着白兔过河。 3. 4. 通义千问大模型: 5. ・带兔过河(左→