科技魔方
  • 开源最新相关新闻
  • 蚂蚁集团等发布开源大模型知识抽取框架OneKE

    蚂蚁集团和浙江大学合作开发了一个名为 OneKE 的开源大模型知识抽取框架。该框架旨在帮助处理信息抽取、文本数据结构化和知识图谱构建等任务,为研究人员和开发者提供有力工具。

    可以在手机上用开源模型了!Hugging Face发布手机应用Hugging Chat

    Hugging Face最近发布了一款名为“Hugging Chat”的iOS客户端应用,为用户带来了便捷。用户现在可以在手机上访问和使用Hugging Face平台上托管的各种开源模型。

  • 科技魔方 手机应用开源模型
  • 606 0
  • Llama 3突然来袭!开源社区再次沸腾:GPT-4级别模型可以自由访问的时代到来

    Meta官方数据显示,Llama38B和70B版本在各自参数规模上超越一众对手。

  • 量子位公众号 开源GPT-4大模型数据
  • 612 0
  • Stable Diffusion 3,可通过API使用啦

    4月18日,著名开源大模型平台Stability.ai在官网宣布,最新文生图模型Stable Diffusion3(简称“SD3”)和 SD3Turbo可以在API中使用。

  • AIGC开放社区公众号 大模型开源文生
  • 616 0
  • 开源软件 Tools4AI 将 AI 无缝集成到 Java 企业应用程序中

    Tools4AI 是一款开源软件,它通过将 AI 无缝集成到 Java 企业应用程序中而脱颖而出。

  • 站长之家 开源软件应用
  • 650 0
  • 李彦宏内部讲话曝光:大模型开源意义不

    据新浪科技报道,近日,李彦宏针对大模型发表内部讲话。在内部讲话中,李彦宏对大模型开源与闭源的路线选择以及 AI 创业者应该专注模型还是应用等业界焦点话题,发表了自己的看法。

    1760亿参数、大小281GB,Mixtral 8x22B开源模型登场:可Torrent下载

    Mistral AI 公司近日推出了 Mixtral 8x22B 开源模型,共有 1760 亿个参数,Context 长度(上下文文本)为 6.5 万个 token,可以通过 Torrent 下载。

  • IT之家 参数大模型开源
  • 577 0
  • 北大开源aiXcoder-7B最强代码大模型,企业部署最佳选择

    当下,大语言模型集成至编程领域、完成代码生成与补全任务成为重要趋势。

  • 机器之心公众号 北大开源开源大模型
  • 1747 0
  • 北大开源最强aiXcoder-7B代码大模型 专为企业级软件开发场景设计

    在当今科技快速发展的时代,AI代码生成技术正逐渐成为软件开发领域的热门话题。尽管AI在解决编程问题方面表现出色,但在真实的企业开发环境中,其应用似乎还不够理想。为了解决这一问题,aiXcoder团队推出了全新的开源代码大

  • 站长之家 北大开源大模型
  • 616 0
  • 普林斯顿首个「开源」AI程序员进场 基于GPT-4,可自动修复bug

    普林斯顿大学最近推出了一款名为SWE-agent的AI程序员,这是世界上首个开源的AI程序员,它基于GPT-4技术,能够在GitHub仓库中自动修复bug。这个智能体-计算机接口(ACI)的诞生,标志着AI在软件工程领域的应用迈出了重要一步。

  • 站长之家 普林斯顿开源AIGPT-4
  • 525 0
  • 元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用
    元象发布 XVERSE-MoE-A4.2B 大模型 可免费商用

    元象发布了XVERSE-MoE-A4.2B大模型,采用混合专家模型架构,激活参数为4.2B,效果媲美13B 模型。该模型全开源,免费商用,可用于海量中小企业、研究者和开发者,推动低成本部署。

  • 站长之家 元象大模型开源
  • 676 0
  • 天工大模型3.0即将发布:同步开源4000亿参数MoE超级模型

    据昆仑万维官微发文,天工大模型3.0将于4月17日正式发布,并同步开源4000亿参数MoE超级模型。

    开源AI平台Lightning AI发布AI编译器“Thunder”以加速模型训练
    开源AI平台Lightning AI发布AI编译器“Thunder”以加速模型训练

    开源人工智能平台Lightning AI宣布与Nvidia合作,发布了名为“Thunder”的下一代AI编译器,旨在加速人工智能模型的训练速度。

  • 站长之家 开源AILightning编译器
  • 705 0
  • 开源大模型DBRX:1320亿参数,比Llama2-70B快1倍

    大数据公司Databricks最近发布了一款名为DBRX的MoE大模型,引发了开源社区的热议。

  • 站长之家 开源大模型DBRX
  • 653 0
  • 1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX

    3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。

  • AIGC开放社区公众号 开源大模型数据
  • 577 0
  • 魔搭社区开源Data-Juicer 、 lite-Sora 类 Sora 模型

    在2024全球开发者先锋大会上,魔搭社区推出了 “ModelScope-Sora开源计划”,旨在通过开源力量促进中国类 Sora 模型的探索与创新。

  • 站长之家 魔搭社区开源大模型
  • 567 0
  • 告别复杂工作流!北大发布新视频转视频项目FRESCO 还支持转化部分区域

    FRESCO项目是北京大学最新发布的视频转视频项目,它的出现极大地简化了视频处理的工作流程。这个项目的核心功能是将视频转换成不同风格的视频,而且还可以只转换视频的某一部分,这无疑为视频处理带来了极大的便利。

  • 站长之家 北大视频代码开源
  • 603 0
  • 没等来OpenAI,等来了Open-Sora全面开源

    不久前 OpenAISora以其惊人的视频生成效果迅速走红,在一众文生视频模型中突出重围,成为全球瞩目的焦点。继2周前推出成本直降46% 的 Sora 训练推理复现流程后,Colossal-AI 团队全面开源全球首个类 Sora 架构视频生成模型

  • ​机器之心公众号 OpenAIOpen-Sora开源
  • 574 0
  • 马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
    马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载

    今天凌晨,马斯克旗下大模型公司 xAI 宣布正式开源 3140 亿参数的混合专家(MoE)模型「Grok-1」,以及该模型的权重和网络架构。

  • 机器之心Pro 开源开源大模型大模型
  • 680 0
  • MDTv2开源,Sora核心组件DiT训练提速 10 倍

    由颜水成和程明明领衔的研究团队在Sora核心技术上进行了重要的升级,推出了Masked Diffusion Transformer V2。该模型在ImageNet benchmark上取得了惊人的成绩,FID score达到1.58,刷新了State-of-the-Art(SoTA)。

  • 站长之家 MDTv2开源Sora
  • 613 0
  • 开源AI助手AIlice:可以控制多个智能体协同完成复杂任务

    MyShellAI刚上班了开源项目AIlice,可以控制多个智能体协同完成复杂的任务,例如文档检索、下载、数据分析、画图等。 并且可以针对任务生成代码在虚拟环境中运行。

  • 站长之家 开源AI助手AIlice
  • 699 0
  • 最长处理2小时,开源视频字幕模型Video ReCap

    随着抖音、快手等平台的火爆出圈,越来越多的用户开始制作大量的短视频内容。但对这些视频进行有效的理解和分析仍面临一些困难。

  • AIGC开放社区 开源视频抖音快手
  • 564 0
  • 谷歌开源Gemma:参数小、性能超越Llama2,可轻松在笔记本上运行

    2月22日 消息:谷歌于2月22日宣布开源大语言模型Gemma,成为其生成式AI领域的新力量。Gemma采用Gemini架构,有20亿、70亿两个版本,分别支持预训练和指令微调。

  • 站长之家 谷歌开源笔记本电脑
  • 620 0
  • 谷歌发布开源大模型Gemma

    2月22日,谷歌宣布推出全球性能最强大、轻量级的开源模型系列—— Gemma。该模型共分为分为 2B(20 亿参数)和 7B(70 亿)两种尺寸版本,2B 版本甚至可直接在笔记本电脑上运行。

  • 网经社 谷歌开源大模型Gemma
  • 629 0
  • 谷歌开源Magika:AI驱动文件类型识别系统,提升用户安全

    Google最近开源了一款名为Magika的文件类型识别系统,该系统由AI驱动,能够在毫秒级内准确识别超过100种不同的文件类型,包括二进制文件和文本文件。

  • 站长之家 谷歌开源MagikaAI驱动
  • 545 0
  •  135    1 2 3 4 5 6 下一页 尾页

    -------------没有了-------------

    图赏更多>