科技魔方

Meta 开放 LLaMA 2 模型使得人工智能竞赛可能结束比预期的早

大模型

2023年07月21日

  最近的一项交易表明,人工智能领域可能会看到越来越多的合作伙伴关系,而不仅仅是一对一的竞争。Meta早先本周在开放许可下免费提供其LLaMA 2 大型语言模型,并将其引入微软的 Azure 平台。

  这一决定突显了 AI 互操作性的好处,随着更多公司加入这个领域,这可能不会是最后一个类似的合作。

  到目前为止,已知的 LLM 都相对孤立,以更受控制的环境提供,用户需要获得权限才能构建模型或使用数据。OpenAI 继续培训 GPT,在 3 月发布了 GPT-4,并向开发者提供付费 API 访问其最新版本的模型。苹果正在开发自己的 LLM,名为 Ajax,尽管细节不多,但它尚未公开,其开源状态也未知。谷歌的 LLM Bard 根本不是开源的。

  LLaMA 最初并不对公众开放,只能通过 Meta 访问,而 Meta 还未透露其训练数据。但 LLaMA 一直被设想为开源,并且旨在「进一步实现普惠性 AI」。本周,Meta 在某种程度上兑现了这一承诺。封闭系统的用户必须支付许可费用才能访问模型所在的位置,并分发使用该模型的应用程序。

  Meta 开放 LLaMa 并将其引入 Azure 具有商业意义,特别是如果 Meta 相信公开开发人工智能的话。这是让人们在平台上访问更多 LLM 模型并比较结果的第一步。有更多种类的 LLM 框架可供选择,也凸显了每个模型如何相互配合的问题。LLM 开发者希望人们使用他们的模型,因此在多种平台上提供这些模型将使它们更多地接触到用户。

  即使是最具竞争力的大型科技公司也会彼此合作。Meta 与微软合作并不陌生,Meta 将微软的 Teams 产品引入了 Workplace by Meta,该平台已经运行 Office 365 套件。

  开放性也存在风险。OpenAI 的联合创始人兼首席科学家 Ilya Sutskever 表示,2015 年成立时,他们更加开放,现在对于分享研究,他对此表示遗憾,担心竞争和安全问题。开放数据集使起诉版权侵权变得更容易,因为人们可以看到哪些来源被用来收集数据来训练模型。

  但是,可以选择更多 LLM 框架对于 AI 互操作性的倡导者来说可能是个好消息。由于 LLM 默认情况下是彼此不同的,开发者通常必须选择使用哪个模型来构建应用程序。系统之间没有良好的交流方式。

  封闭的生态系统对于大多数现代科技用户来说并不奇怪,但 AI 互操作性倡导者认为,AI唯一能够成长和发展的方式不是通过封闭的生态系统,而是通过可以相互交流的开放结构。甚至微软也相信可互操作的 AI;它加入了其他科技公司,成为了开放神经网络交换(ONNX)的一员,该组织旨在推广 AI 互操作性的行业标准,使开发者能够「找到正确的工具组合」。

  让 AI 系统相互协作可能会为搜索等方面带来更好的结果。能够在不同数据集上训练模型的公司可以提供更好、更全面的服务,如果一个模型出现错误,还可以避免对信息来源的过度依赖。能够在一个地方同时开发 LLaMA 和 OpenAI 的 GPT 模型也可以降低开发成本和时间。

  目前,LLaMA 在 Azure 上可用并不意味着使用 LLaMA 创建的应用程序可以直接与运行在 OpenAI 的 GPT 模型的应用程序进行交流。目前还没有人创造出这样的桥梁。

  此外,并不是所有人都认为 LLaMA 符合开源软件的所有要求,特别是因为它没有使用开源计划认证(Open Source Initiative)批准的许可证,并且限制了谁可以在不付费的情况下商业使用 LLaMA。根据其社区许可协议,每月活跃用户超过 7 亿的开发者「必须向 Meta 申请许可」。

  但这对于开源和互操作性来说是朝着正确的方向迈出的一大步,即使仅仅是为了让开发者更容易在不同模型之间进行访问。良性竞争是可以接受的,但如果公司真的希望 AI 发展,合作是最好的选择。

+1

来源:站长之家

延展资讯