利用人工智能来合成视频一直是该领域的难题,因为其中最关键的一环——映射与合成,缺乏优秀的模型算法,只能利用卷积神经网络(CNN)和生成对抗网络(GAN)来不断提取特征、生成、判断,直至最后结果。
近期,Meta与清华校友合作提出的FlowVid视频生成模型在AI领域引起了瞩目。该模型采用V2V技术,在短短1.5分钟内生成一段4秒的视频,标志着AI视频生成领域的新突破。
最强的全能多模态模型来了!就在近日,智源研究院重磅发布了开源界的「Gemini」——Emu2,一口气刷新多项SOTA。
Google近日发布了其新的 GoogleAISDK,旨在简化在安卓应用中集成其迄今为止表现最佳的模型Gemini Pro。使用此 SDK,开发者无需构建和管理自己的后端基础设施。
目前获得融资最多的两家大模型创业公司是OpenAI和Anthropic,而这两家公司最大的投资者分别是微软和亚马逊,他们投资的很大一部分不是资金,而是等值的云计算资源。
随着大型语言模型在实际业务中的广泛应用,确保其输出的真实性和可靠性成为亟待解决的问题。学术界采用“归因”方法来追踪和证实模型输出的内容。
Google Research最近发布了一款名为VideoPoet的大型语言模型(LLM),旨在解决当前视频生成领域的挑战。该领域近年来涌现出许多视频生成模型,但在生成连贯的大运动时仍存在瓶颈。
Stable Diffusion 背后的的公司Stability A现在推出了一项订阅服务,以标准化和改变客户商业用途中对其模型的使用方式。
据 Businessinsider 报道,大型 AI 模型现在已经强大到可以完全自动地创建新的小型 AI 工具,无需任何人类干预。
近日,来自华中科技大学、字节跳动和约翰斯·霍普金斯大学的研究人员推出了一款名为GLEE的全新通用物体级别基础模型,为图像和视频分析带来了全新的可能性。
OpenAI,一个承诺为全人类利益构建人工智能的公司,自去年推出 ChatGPT 以来,其商业雄心在最近的治理危机中变得更加显著。
-------------没有了-------------