热烈庆祝开源社区第一个音画同步的模型LTX2.0
目前大多数 AI 视频工具的工作流程是这样的:先生成无声视频,再用另一个模型配音。这导致画面和声音经常对不上——爆炸的火光和爆炸声有时间差,说话的嘴型和语音不同步。例如: 阿里的wan2.1 wan2.2模型腾讯的混元模型
_________________________________
目前收费的音画同步模型 : sora2 可灵 即梦 wan2.6 海螺等, 都是按秒收费
_________________________________
好消息是:
2026年1月6日,Lightricks 开源了 LTX-2 模型。这不是又一个”能生成视频”的 AI 工具,而是第一个在统一架构下同时生成视频和音频的开源基础模型。
自媒体, 视频短剧,AI漫剧未来大有可为
欢呼!!! 这个真是的,太好用了吧。一次就上瘾了 在runninghub上测试了下,配音多数情况很诡异,有时候感觉是负功能
页:
[1]