首页 家电百科 实时讯息 常识
您的位置: 首页 > 实时讯息 >

Character.AI推AvatarFX模型:AI静转动,让图片角色开口说话

IT之家 4 月 23 日消息,Character.AI 公司今天(4 月 23 日)在 X 平台发布推文,宣布推出 AvatarFX 模型,能够让静态图片中的人物“开口说话”。

用户只需上传一张图片并挑选一个声音,平台即可生成会说话、会移动的形象。这些形象还能展现情感,呈现出令人惊叹的真实感和流畅度。

公司表示,这得益于一种名为“SOTA DiT-based diffusion video generation model”的先进 AI 模型。该模型经过精心训练,结合音频条件优化技术,能高效生成高质量视频。IT之家附上演示视频如下:

AvatarFX 的技术亮点在于其“高保真、时间一致性”的视频生成能力。即便面对多角色、长序列或多轮对话的复杂场景,它也能保持惊人的速度和稳定性。与 OpenAI 的 Sora 和 Google 的 Veo 等竞争对手相比,AvatarFX 并非从零开始或基于文本生成视频,而是专注于将特定图片动画化。

这种独特的工作流程为用户提供了新颖体验,但也带来了潜在风险。用户可能上传名人或熟人照片,制作看似真实的虚假视频,引发隐私和伦理争议。

相关文章