Character.AI 突破性技术:实时 AI 角色视频互动

内容摘要IT之家 7 月 5 日消息,AI 聊天机器人平台 Character.AI 发布研究论文和视频演示,展示了名为 TalkingMachines 的自回归扩散模型,让 AI 角色互动更加逼真。该模型尚未部署在 Character.AI 平台

联系电话:400-962-3929

IT之家 7 月 5 日消息,AI 聊天机器人平台 Character.AI 发布研究论文和视频演示,展示了名为 TalkingMachines 的自回归扩散模型,让 AI 角色互动更加逼真。

该模型尚未部署在 Character.AI 平台上,根据研究论文和视频演示,用户只需要输入一张图片和声音信号,该模型就能实现类似 FaceTime 的通话视觉互动。

该模型基于 Diffusion Transformer(DiT)技术,本质上是一种能够从随机噪声中创建详细图像的“艺术家”,并不断优化图像直至完美。Character.AI 所做的就是让这一过程变得极其迅速,达到实时效果。

TalkingMachines 模型采用了流匹配扩散(Flow-Matched Diffusion)、音频驱动的交叉注意力(Audio-Driven Cross Attention)、稀疏因果注意力(Sparse Causal Attention)和不对称蒸馏(Asymmetric Distillation)等多种关键技术。

其中流匹配扩散技术通过训练大量动作,包括细微的面部表情和更夸张的手势,确保 AI 角色动作更加自然。音频驱动的交叉注意力技术则让 AI 不仅能听到单词,还能理解音频中的节奏、停顿和语调,并将其转化为精确的口型、点头和眨眼。

稀疏因果注意力技术让 Character.AI 能够以更高效的方式处理视频帧,而不对称蒸馏技术则让视频能够实时生成,营造出类似 FaceTime 通话的效果。

Character.AI 强调,这一研究突破不仅仅是关于面部动画的,它是朝向实时互动的音频视觉 AI 角色迈出的一步。该模型支真实感人类、动漫和 3D 虚拟形象等多种风格。

IT之家附上参考地址

 
举报 收藏 打赏 评论 0
今日推荐
浙ICP备19001410号-1

免责声明

本网站(以下简称“本站”)提供的内容来源于互联网收集或转载,仅供用户参考,不代表本站立场。本站不对内容的准确性、真实性或合法性承担责任。我们致力于保护知识产权,尊重所有合法权益,但由于互联网内容的开放性,本站无法核实所有资料,请用户自行判断其可靠性。

如您认为本站内容侵犯您的合法权益,请通过电子邮件与我们联系:675867094@qq.com。请提供相关证明材料,以便核实处理。收到投诉后,我们将尽快审查并在必要时采取适当措施(包括但不限于删除侵权内容)。本站内容均为互联网整理汇编,观点仅供参考,本站不承担任何责任。请谨慎决策,如发现涉嫌侵权或违法内容,请及时联系我们,核实后本站将立即处理。感谢您的理解与配合。

合作联系方式

如有合作或其他相关事宜,欢迎通过以下方式与我们联系: