200万名开发者参与生态构建,92%的世界500强公司使用其产品,以及ChatGPT全球周活跃用户超1亿。这是OpenAI首席执行官Sam Altman在首次开发者大会上公布的过去一年骄人业绩。

然而在这场被戏称为“AI春晚”的DevDay上,给AI圈带来大地震的远不止这些:不仅有会前流传的GPT-4 Turbo和更强大的全新功能,还将推出GPT Store,以及自定义GPT(GPTs),用户可以分分钟创建自己的GPT。

这场开发者大会结束后,有评价称OpenAI的组合拳把创业者打懵了,“一夜回到解放前”、“降维打击初创企业”之声不绝于耳,但事实上“建生态”这条路线并非横空出世,大模型玩家都在探索类似的落地方式。

其次,OpenAI距离建立类似App Store的底层infra,仍然有很长一段路要走。这需要非常丰富的应用形态,而非仅仅是ChatGPT提供的对话及信息获取。如果没有充足的日活和使用频率,生态的建设无异于空中楼阁。

但是非常重要的一点是,OpenAI在“建生态”这条路上官宣出发,让国内外的AI从业者都不得不正视即将到来的巨大变革。

AI创业者的机会在哪里,答案是寻找领域壁垒的大山,将大模型能力和场景深度结合

虽然OpenAI基于很强的基座模型,往上做了很强的演化,但是其目前甚至很长一段时间都还解决不好的问题,是垂直纵深的领域壁垒问题。

垂直领域的壁垒是决定能否建立护城河的关键,这里涉及到独特的行业数据、数据挖掘能力、种种业务逻辑的复杂性、客户隐私……在垂直方向深耕,才能做出真正有核心价值的产品。

在这个节点,让我们重新回顾一个月前,Altman在YC Alumni Reunion上的分享,或许很有思考意义。

Key Takeaways

  • 简单模仿、套壳OpenAI的公司注定消亡。仅在成本、速度、界面、用户体验、提升GPT功能等方面与OpenAI一较高下的公司,竞争优势并不会持续,企业必须提供真正独特的价值。OpenAI已经投入大量资金,解决自身存在的缺陷和问题,并将不断提高模型的准确性和成本效率。

    值得注意的是,当今市场上有多种模型可供选择,每种模型都有其独特挑战。如果仅仅覆盖OpenAI或某个模型的特性,未来将面临挑战。

  • 优先考虑针对特定目标的人工智能解决方案,比如AI在医学、教育上的赋能,这两者社会价值都十分巨大。有消息称,OpenAI正在筹建OpenAI学院,它有可能是人人可访问的免费在线教学系统。在此之前,OpenAI也在GPT-4客户案例中展现了两个教育场景,GPT-4化身AI学习助手,既可以作为学生的虚拟导师,又可以作为教师的课件助手。
  • 挖掘协助企业使用人工智能的潜力,包括创建私有GPT的可能性。OpenAI目前似乎正在避开这个领域,优先考虑扩展其高端模型的功能。因此训练一个更小、资源密集度较低、不依赖于广泛GPU计算能力的模型似乎是一个可以探索的方向。
  • 没有计划的盲目筹资是不明智的,融到钱并不意味着万事大吉。
  • 要做长远的思考,OpenAI也曾涉足机械臂、核能研究、游戏等领域,最终发现要解决的问题是对AGI之路的综合思考。失败的尝试并不可怕,重要的是通过失败发展出新的能力。
  • 重视人才招聘,关注那些“看起来不完全适合加入公司”的人。ChatGPT并非是OpenAI从最开始就倾力投入的项目,当大模型路线尚不明确时,OpenAI仍然招聘了一位本科生做AI方向的研究。

    这位本科生就是Alec Radford,毕业后就加入了OpenAI,如今在谷歌学术上的论文引用次数已经超过9万。他所坚持的大模型路线取得突破后,成为整个公司倾力投入的项目,改变了OpenAI甚至整个AI领域的发展方向。

  • Altman认为大模型领域的“Scaling Laws”已经开始发挥作用,随着大模型训练成本和调用GPT接口价格的下降,更强大的AI能力将会出现

    Scaling Law(扩展法则)的概念最初由OpenAI发表于2020年的“Scaling Laws for Neural Language Models”,文中提出:测试集上的Loss会随着计算、数据规模与模型参数量的增加而呈现可以预测的下降模式,即随着模型、数据集的大小和计算的增加,模型的性能会提高。该发现对于优化自然语言模型的设计与训练有重要的指导意义。

  • 即便前景如此光明,Altman表示距离AGI之路还很远。真正的AGI将能够“自行推理”,随着时间推移,发展新知识。能够根据已有知识写论文、做实验的AI,才能达到AGI的门槛。同时,他指出必须谨慎对待AI的输出结果,人们难以原谅计算机犯的错误。