meiyouruguo 发表于 2026-1-7 09:40:11

热烈庆祝开源社区第一个音画同步的模型LTX2.0

目前大多数 AI 视频工具的工作流程是这样的:先生成无声视频,再用另一个模型配音。这导致画面和声音经常对不上——爆炸的火光和爆炸声有时间差,说话的嘴型和语音不同步。
例如: 阿里的wan2.1 wan2.2模型腾讯的混元模型
_________________________________
目前收费的音画同步模型 : sora2    可灵   即梦   wan2.6   海螺等, 都是按秒收费
_________________________________
好消息是:
2026年1月6日,Lightricks 开源了 LTX-2 模型。这不是又一个”能生成视频”的 AI 工具,而是第一个在统一架构下同时生成视频和音频的开源基础模型。

自媒体, 视频短剧,AI漫剧未来大有可为







guozhixin86 发表于 2026-1-7 11:56:10

欢呼!!!

wowkof 发表于 2026-1-7 15:28:13

这个真是的,太好用了吧。一次就上瘾了

jandown 发表于 2026-1-7 22:36:37

在runninghub上测试了下,配音多数情况很诡异,有时候感觉是负功能
页: [1]
查看完整版本: 热烈庆祝开源社区第一个音画同步的模型LTX2.0