科技魔方

智谱AI推出国产大模型GLM-4 中文能力比肩GPT-4

更多动态

2024年01月16日

  1月16日消息,智谱AI今天发布全自研第四代基座大模型GLM-4,性能相比前一代GLM-3提升60%、中文能力比肩GPT-4。

  智谱AI CEO张鹏介绍,GLM-4的整体性能相比上一代大幅提升,逼近GPT-4。它可以支持更长的上下文,具备更强的多模态能力。同时,它的推理速度更快,支持更高的并发,大大降低推理成本。

  除此之外,GLM-4大幅提升了智能体能力,GLM-4 All Tools 实现自主根据用户意图,自动理解、规划复杂指令,自由调用网页浏览器、Code Interpreter代码解释器和多模态文生图大模型以完成复杂任务。GLMs 个性化智能体定制功能亦同时上线,用户用简单的提示词指令就能创建属于自己的 GLM 智能体。

  中文能力比肩GPT-4

  在基础能力方面,GLM-4在各项评测集上的最终得分如下:

  MMLU:81.5,达到GPT-4的94%水平;

  GSM8K:87.6 ,达到GPT-4的95%水平;

  MATH :47.9,达到GPT-4的91%水平;

  BBH :82.3,达到GPT-4的99%水平;

  HellaSwag :85.4,达到GPT-4 的90%水平;

  HumanEval:72,达到GPT-4的100%水平。

  指令跟随能力方面, GLM-4在IFEval Prompt提示词跟随中文方面达到和GPT-4的88%水平,指令跟随(中文)方面达到 90%水平。

  对齐能力上,基于AlignBench数据集,GLM-4超过了GPT-4的6月13日版本,逼近GPT-4最新11月6日版本的效果。GLM-4在中文推理、逻辑推理方面的能力,还有待进一步提升。

  GLM-4可以支持128k的上下文窗口长度,单次提示词可以处理的文本可以达到300页。同时,在needle test(大海捞针)测试中,128K文本长度内GLM-4 模型均可做到几乎100%的精度召回,并未出现长上下文全局信息因为失焦而导致的精度下降问题。

  同时,多模态能力方面,GLM-4在文生图(CogView3)和多模态理解都得到了增强。CogView3效果超过开源最佳的Stable Diffusion XL,逼近DALLE•3。

  此外,GLM-4的All Tools能力全新发布。

  GLM-4实现了自主根据用户意图,自动理解、规划复杂指令,自由调用网页浏览器、Code Interpreter代码解释器和文生图CogView3模型。

  同时,GLM-4 通过代码解释器,会自动调用代码解释器进行复杂的方程或者微积分求解。对比GSM8K、Math以及Math23K三个数据集上的结果,GLM-4 All Tools取得和GPT-4 All Tools相当的效果。

  GLM-4的All Tools能力完全自动,而且可以处理各种任务,比如包括文件处理、数据分析、图表绘制等复杂任务,支持处理 Excel、PDF、PPT 等格式的文件。

  GLMs上线 大模型开源基金共建生态

  GLMs个性化智能体定制能力也同步上线。

  基于GLM-4模型的强大能力,张鹏介绍介绍,用户只要登录智谱清言官方网站,用简单的提示词指令就能创建属于自己的GLM智能体。

  用户可以通过全新上线的智能体中心分享自己创建的各种智能体。GLM模型智能体的推出标志着任何人都能够自由运用GLM-4模型并挖掘它的潜力,没有任何编程基础也能够实现大模型的便捷开发。这是智谱AI为降低大模型使用门槛所做的最新努力。

  此前,智谱AI分别联合CCF中国计算机学会、中国中文信息学会社会媒体处理专委会发起了CCF-智谱大模型基金、SMP-智谱大模型交叉学科基金,用于支持大模型理论、算法、模型、应用等相关研究和跨领域交叉创新。去年两支基金为来自全国三十余所高校参与的41个研究项目累计提供了超1000万元现金和算力资源的科研支持。

  2024年智谱AI也将发起开源开放的大模型开源基金。

+1

来源:TechWeb

延展资讯