📢 Gate广场 #创作者活动第一期# 火热开启,助力 PUMP 公募上线!
Solana 爆火项目 Pump.Fun($PUMP)现已登陆 Gate 平台开启公开发售!
参与 Gate广场创作者活动,释放内容力量,赢取奖励!
📅 活动时间:7月11日 18:00 - 7月15日 22:00(UTC+8)
🎁 活动总奖池:$500 USDT 等值代币奖励
✅ 活动一:创作广场贴文,赢取优质内容奖励
📅 活动时间:2025年7月12日 22:00 - 7月15日 22:00(UTC+8)
📌 参与方式:在 Gate 广场发布与 PUMP 项目相关的原创贴文
内容不少于 100 字
必须带上话题标签: #创作者活动第一期# #PumpFun#
🏆 奖励设置:
一等奖(1名):$100
二等奖(2名):$50
三等奖(10名):$10
📋 评选维度:Gate平台相关性、内容质量、互动量(点赞+评论)等综合指标;参与认购的截图的截图、经验分享优先;
✅ 活动二:发推同步传播,赢传播力奖励
📌 参与方式:在 X(推特)上发布与 PUMP 项目相关内容
内容不少于 100 字
使用标签: #PumpFun # Gate
发布后填写登记表登记回链 👉 https://www.gate.com/questionnaire/6874
🏆 奖励设置:传播影响力前 10 名用户,瓜分 $2
Character.AI 推出 TalkingMachines 的实时 AI 视频技术
瑞贝卡·莫恩
2025年7月4日 04:27
Character.AI推出了TalkingMachines,这是一项实时AI视频生成的突破,利用先进的扩散模型进行互动式音频驱动的角色动画。
Character.AI 宣布了一项在实时视频生成方面的重要进展,推出了 TalkingMachines,这是一种创新的自回归扩散模型。这项新技术使得创建互动的、基于音频的 FaceTime 风格视频成为可能,让角色能够在各种风格和类型中实时对话,正如 Character.AI 博客所报道的那样。
革新视频生成
TalkingMachines建立在Character.AI之前的工作AvatarFX之上,后者为其平台的视频生成提供支持。这个新模型为沉浸式、实时的AI驱动视觉互动和动画角色奠定了基础。通过仅利用一张图像和一个声音信号,该模型能够生成动态视频内容,为娱乐和互动媒体开辟新的可能性。
TalkingMachines 背后的技术
该模型利用了扩散变压器(DiT)架构,采用了一种称为非对称知识蒸馏的方法。该方法将一个高质量的双向视频模型转变为一个快速的实时生成器。主要特点包括:
对未来的影响
这项突破不仅限于面部动画,为互动视听AI角色铺平了道路。它支持从照片级真实到动漫和3D头像的广泛风格,并且有望通过自然的说话和倾听阶段来增强流媒体。这项技术为角色扮演、讲故事和互动世界构建奠定了基础。
提升人工智能能力
Character.AI的研究标志着多个进展,包括实时生成、高效蒸馏和高可扩展性,能够在仅使用两个GPU的情况下运行操作。该系统还支持多说话者交互,实现无缝的角色对话。
未来展望
虽然这还不是产品发布,但这一发展是Character.AI路线图中的一个重要里程碑。该公司正在努力将这项技术集成到他们的平台中,旨在实现类似FaceTime的体验、角色流媒体和视觉世界构建。最终目标是让每个人都能创造和与沉浸式视听角色进行互动。
Character.AI 在训练基础设施和系统设计方面进行了大量投资,利用了超过 150 万个精心挑选的视频片段和三阶段训练管道。这种方法展示了前沿研究在人工智能技术中的精确性和目标性。
图片来源:Shutterstock