4月3日,阿里通义实验室发布新一代视频生成模型Wan2.7-Video,一口气覆盖了文生视频、图生视频、参考生视频和视频编辑四大场景,把AI视频从”能演”推进到了”能导”的阶段。
这个模型最硬核的地方在于它把视频变成了像Word文档一样可编辑的东西。你可以通过自然语言指令精准修改视频里的局部画面——比如让AI”删掉画面里的火车”或者”把胶片换成盘子”,编辑后的区域还能自动和原视频的光影、材质融合,完全看不出违和感。更夸张的是角色替换功能,把视频里的路人换成中世纪骑士,姿势和动作逻辑都能保持一致。
镜头语言的控制力也上了新台阶。用户可以直接调整机位、视角、景别、焦距这些拍摄参数,甚至用一句”镜头从地面缓缓升起”来改变整个画面的拍摄方式。剧情续写方面,通过首尾帧控制,AI能精确保证画面构图和光影的延续性。官方还一口气放出了多模态参考输入,最多支持5个视频主体同时锁定外观和音色,切换镜头也不会出现角色”变脸”的问题。
就在一天前,阿里刚发布了千问3.6-Plus大模型,号称国产编程能力最强,100万token上下文窗口直接对标Claude Code。两天连发两款重磅模型,阿里的AI节奏明显在加速。你猜下一个被AI”接管”的创意工种会是什么?
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...