李开复博士创办的AI 2.0公司零一万物发布首款开源大模型——Yi系列大模型:Yi-34B和Yi-6B。
06122930-2023-11-06T04:29:26.png
虽然Yi系列大模型出道时间相对较晚,但从效果上来看,绝对称得上是后发制人。
一出手即问鼎多项全球第一:

  • Hugging Face英文测试榜单位居第一,以34B的大小碾压Llama-2 70B和Falcon-180B等一众大尺寸大模型;
  • 唯一成功登顶HuggingFace的国产大模型;
  • C-Eval中文能力排行榜位居第一,超越了全球所有开源模型;
  • MMLU、BBH等八大综合能力表现全部胜出;
  • 拿下全球最长上下文窗口宝座,达到200K,可直接处理40万汉字超长文本输入。
  • ……

在Hugging Face英文测试公开单 Pretrained 预训练开源模型排名中,Yi-34B以70.72分数位列全球第一,超过了LLaMA-70B和Falcon-180B。要知道,Yi-34B的参数量仅为后两者的1/2、1/5。不仅“以小博大”问鼎榜单,而且实现了跨数量级的反超,以百亿规模击败千亿级大模型。其中在MMLU(大规模多任务语言理解)、TruthfulQA(真实性基准)两项指标中,Yi-34B都大幅超越其他大模型。

聚焦到中文能力方面,Yi-34B在C-Eval中文能力能力排行榜上超越所有开源模型。同样开源的Yi-6B也超过了同规模所有开源模型。在CMMLU、E-Eval、Gaokao三个主要中文指标上,明显领先于GPT-4,彰显强大的中文优势,对咱们更知根知底图片。在BooIQ、OBQA两个问答指标上,和GPT-4水平相当。

另外,在大模型最关键评测指标MMLU(Massive Multitask Language Understanding,大规模多任务语言理解)、BBH等反映模型综合能力的评测集上,Yi-34B在通用能力、知识推理、阅读理解等多项指标评比中全面超越,与Hugging Face评测高度一致。

不过在发布中零一万物也表示,Yi系列模型在GSM8k、MBPP的数学和代码测评中表现还不及GPT模型。这是因为团队希望在预训练阶段先尽可能保留模型的通用能力,所以训练数据中没有加入过多数学和代码数据。

目前团队正在针对数学方向展开研究,提出了可以解决一般数学问题的大模型MammoTH,利用CoT和PoT解决数学问题,在各个规模版本、内外部测试集上均优于SOTA模型。其中MammoTH-34B在MATH上的准确率达到44%,超过了GPT-4的CoT结果。

而除了亮眼的刷榜成绩外,Yi-34B还将大模型上下文窗口长度刷新到了200K,可处理约40万汉字超长文本输入。

零一万物之所以选择在年底搭乘“晚班车”入局,实则与它自身的目标息息相关。正如李开复在此次发布中所述:

零一万物坚定进军全球第一梯队目标,从招的第一个人,写的第一行代码,设计的第一个模型开始,就一直抱着成为“World’s No.1”的初衷和决心。

这也与李开复关于AI2.0的思考判断一以贯之,在ChatGPT带动大模型热潮之后,他就曾公开表示过:

以基座大模型为突破的AI 2.0时代,将掀起技术、平台到应用多个层面的革命。如同Windows带动了PC普及,Android催生了移动互联网的生态,AI2.0将诞生比移动互联网大十倍的平台机会,将把既有的软件、使用界面和应用重写一次,也将诞生新一批AI-first的应用,并催生由AI主导的商业模式。

模型地址:
https://huggingface.co/01-ai/Yi-34B
https://www.modelscope.cn/models/01ai/Yi-34B/summary
https://github.com/01-ai/Yi