最近,谷歌研究团队发布了一款名为Lumiere的先进人工智能视频生成器,引起了对深度伪造技术可能增加的担忧。
在最新的研究中,百度提出了一项名为UNIMO-G的统一图像生成框架,旨在克服现有文本到图像扩散模型面临的挑战。传统模型主要根据简洁的文本提示生成图像,但文本描述的简洁性限制了生成复杂细节图像的能力。
1月25日 消息:HeyGen又发布新功能,你现在可以和AI进行视频聊天了。这一功能让用户可以通过文字和一个具象的AI形象进行实时视频对话。这意味着用户可以和一个虚拟的人物进行视频交流,而这个人物的外貌、声音和回答都是
Lumiere是谷歌发布的第三个视频生成模型,这次的模型演示视频质量非常高,运动幅度和一致性表现也很好。除了视频生成,该模型还支持各种视频编辑和生成控制能力。
AI 视频生成,是最近最热门的领域之一。各个高校实验室、互联网巨头 AI Lab、创业公司纷纷加入了 AI 视频生成的赛道。
2024年1月18日,新壹科技宣布其推出的国内首款视频领域生成式人工智能(大语言模型)新壹视频大模型,已通过《生成式人工智能服务管理暂行办法》备案,正式向社会开放服务。
针对视频领域增量学习的困境,字节跳动联合中科院自动化研究所标注了用于域增量学习的美食视频数据集LiveFood,并提出了基于原型学习的解决方案。
1月19日 消息,百度推出的UniVG是一款视频生成模型,其特点在于针对高自由度和低自由度两种任务分别采用不同的生成方式,以更好地平衡两者之间的关系。
Adobe 为视频剪辑软件 Premiere Pro 引入了全新的 AI 驱动音频编辑功能,包括智能音频类别标记、改进的剪辑徽章和效果应用等,旨在解放剪辑师的双手,让他们更专注于创造性工作。
近期,一项名为"Jump Cut Smoothing for Talking Heads"的研究提出了一种创新性的框架,用于在说话头部视频中平滑处理跳切,提升观看体验。
近日,来自华中科技大学、字节跳动和约翰斯·霍普金斯大学的研究人员推出了一款名为GLEE的全新通用物体级别基础模型,为图像和视频分析带来了全新的可能性。
南洋理工大学发布了一项名为FreeInit的方法,该方法可以大幅提高人工智能视频生成的内容一致性。演示显示这一方法非常流畅,并且可以与现有的SD生态结合。
AI视频工具赛道越来越卷,各种升级令人应接不暇,尤其是Gen-2、Pika1.0、Stable Video Diffusion、和Magic Animate,它们正在成为用户最常用的视频生成产品,背后有强大的AI大模型支撑。
腾讯近期发布了一款名为AnimateZero的视频生成模型,据称,该模型的效果比Animatediff要好得多,并且能够更好地兼容现有的SD生态,并采用了社区SD模型进行演示。
谷歌7日凌晨终于发布双子座 Gemini 大模型,声称 MMLU 多任务语言理解数据集测试,Gemini Ultra 不光超越 GPT-4,甚至超越了人类专家。
Runway ML与Getty Images的合作标志着AI视频领域的重要进展。这次合作将开发一个新的生成式AI视频模型,命名为Runway Getty Images Model(RGM),专注于服务好莱坞和广告等视觉媒体行业。
近期,一款名为Call Annie的AI视频聊天应用正变得异常火爆。通过这个应用,用户可以与一个名叫Annie的虚拟女性进行视频通话。
-------------没有了-------------