科技媒体 The Decoder 12 日发布博文,报道称在最近的“Office Hours”活动中,Midjourney 创始人兼首席执行官 David Holz 在 Discord 分享了当前项目的最新进展,并回答了社区的提问。
最近,又一款国产 AI 神器吸引了众网友和圈内研究人员的关注!它就是全新的图像和视频生成控制工具 —— ControlNeXt,由思谋科技创始人、港科大讲座教授贾佳亚团队开发。
阿里巴巴集团研究团队发布了UniPortrait框架,专注于人像图像的个性化处理,实现单角色一致性、多角色一致性和风格参考
Meta AI推出新一代的Segment Anything Model(SAM2),实现了在视频和图像中实时识别和跟踪特定对象的突破。
三星在昨晚的 Galaxy Unpacked 发布会上带来了 Galaxy Z Fold6 / Flip6 等手机新品,两款新机都将内置基于 Android 14的 One UI 6.1.1。
MetaAI的NLLB-200登上Nature,「不让任何一门语言掉队」,能翻译200种语言的大模型获得Nature社论的盛赞——复兴了濒临灭绝的语言,但是Nature研究人员也郑重提醒Meta,必须将使用这些语言的社区也纳入进来,才会真正减缓语言
在CVPR2024上,美国英特尔研究院的蔡志鹏博士及其团队提出了一种名为L-MAGIC(Language Model Assisted Generation of Images with Coherence)的新技术。
近日,研究人员提出了一种名为 Ouroboros3D 的新方法,可以通过递归扩散实现图像到3D 的生成。这项研究集成了多视角图像生成和3D 重建技术,构建了一个统一的3D 生成框架。
经过与GoogleCloud的合作,今日Aria宣布融入了Google的Gemini模型,为其AI浏览器带来了一次重大升级。
SDXLFlash是一个由SDXL团队与Project Fluently合作推出的新型快速高质量文本到图像转换模型。
强大的人工智能模型有时会出现错误,包括虚构错误信息或将他人作品作为自己的。为了解决后者的问题,德克萨斯大学奥斯汀分校的研究团队开发了一种名为 "Ambient Diffusion" 的框架。
谷歌推出了一款名为PaliGemma的开源视觉语言模型,该模型结合了图像处理和语言理解的能力,旨在支持多种视觉语言任务,如图像和短视频字幕生成、视觉问答、图像文本理解、物体检测、文件图表解读以及图像分割等。
OpenAI 发布最新旗舰大模型 GPT-4o,所有用户都可以免费使用!该模型提供了 GPT-4 级别的 AI 能力,接受文本、音频和图像的任意组合输入,并能够生成文本、音频和图像的任意组合输出。
Lumina-T2X 是一个创新的内容生成系列模型,它采用了统一的 DiT(Diffusion Model)架构,能够通过文本生成图像、视频、多视角3D 对象以及音频剪辑。
近期,来自伦敦帝国理工学院和戴尔的研究团队推出了 StyleMamba,这是一种有效的框架,用于转移图片风格,通过使用文本来指导风格化过程,同时保持原始图像内容。
据The Information消息,OpenAI正筹备展示一种革命性的人机对话技术。据可靠消息,这一技术将结合声音和文本,不仅能与用户进行流畅的交流,还具备识别物体和图像的能力,为用户带来前所未有的交互体验。
最近,华为的4K图像模型PixArt-Σ放出了模型文件,而且diffusers也支持了这个架构,用户可以在Comfyui上尝试。
-------------没有了-------------