OpenAI的人工智能聊天机器人ChatGPT现在在某些情况下可以浏览互联网。

OpenAI今天推出了ChatGPT插件,通过授予机器人访问第三方知识来源和数据库(包括网络)的权限来扩展机器人的功能。OpenAI表示,在推出更大规模和API访问之前,它最初将优先考虑少数开发人员和订阅者到其高级ChatGPT Plus计划。

最有趣的插件是OpenAI的第一方网页浏览插件,它允许ChatGPT从网络上提取数据来回答提出的各种问题。(以前,ChatGPT 的知识仅限于 2021 年9 月左右之前的日期、事件和人员。该插件使用 Bing 搜索 API 从网络上检索内容,并在 ChatGPT 的回复中引用其来源,显示它访问过的任何网站以制定答案。

具有网络访问权限的聊天机器人是一个有风险的前景,正如OpenAI自己的研究发现的那样。这家人工智能初创公司在 2021 年构建的一个名为 WebGPT 的实验系统有时会引用不可靠的来源,并被激励从它期望用户会发现有说服力的网站上挑选数据——即使这些来源客观上不是最强大的。Meta 解散后的 BlenderBot 3.0 也可以访问网络,并迅速脱轨,在提示某些文本时深入研究阴谋论和令人反感的内容。

图片来源:OpenAI

实时网络不如静态训练数据集精心策划,当然,这意味着过滤较少。像谷歌和必应这样的搜索引擎使用自己的安全机制来减少不可靠的内容上升到结果顶部的机会,但这些结果可以被玩弄。它们也不一定代表整个网络。正如《纽约客》的一篇文章所指出的那样,谷歌的算法优先考虑使用现代网络技术(如加密、移动支持和架构标记)的网站。结果,许多具有其他高质量内容的网站在洗牌中迷失了方向。

这给了搜索引擎很大的权力来控制数据,这些数据可能会为网络连接的语言模型的答案提供信息。谷歌被发现在搜索中优先考虑自己的服务,例如,使用来自Google Places的数据回答旅行查询,而不是像TripAdvisor这样更丰富,更社交的来源。与此同时,搜索的算法方法为不良行为者打开了大门。据《纽约客》报道,2020 年,Pinterest 利用谷歌图像搜索算法的一个怪癖,在谷歌图片搜索中展示了更多内容。

OpenAI承认,支持Web的ChatGPT可能会执行所有类型的不良行为,例如发送欺诈和垃圾邮件,绕过安全限制,并且通常“增加欺诈,误导或滥用他人的不良行为者的能力”。但该公司还表示,它已经“实施了几项保障措施”,由内部和外部红队告知,以防止这种情况发生。时间会证明它们是否足够。

除了网络插件之外,OpenAI还为ChatGPT发布了一个代码解释器,该解释器在沙盒防火墙环境中为聊天机器人提供了一个有效的Python解释器以及磁盘空间。它支持OpenAI表示,它对于解决数学问题,进行数据分析和可视化以及在不同格式之间转换文件特别有用。

图片来源:OpenAI

许多早期的合作者为ChatGPT构建了插件,以加入OpenAI自己的插件,包括Expedia,FiscalNote,Instacart,Kayak,Klarna,Milo,OpenTable,Shopify,Slack,Speak,Wolfram和Zapier。

它们在很大程度上是不言自明的。例如,OpenTable插件允许聊天机器人在餐厅中搜索可用的预订,而Instacart插件允许ChatGPT从本地商店下订单。到目前为止,Zapier是其中最具可扩展性的,它与Google Sheets,Trello和Gmail等应用程序连接,以触发一系列生产力任务。

为了促进新插件的创建,OpenAI开源了一个“检索”插件,使ChatGPT能够通过自然语言提问来访问来自数据源(如文件,笔记,电子邮件或公共文档)的文档片段。

“我们正在努力开发插件并将它们带给更广泛的受众,”OpenAI在一篇博客文章中写道。 “我们有很多东西要学,在每个人的帮助下,我们希望构建一些既有用又安全的东西。

插件是 ChatGPT 开发时间表的一个奇怪补充。一旦仅限于其训练数据中的信息,ChatGPT 通过插件突然变得更加强大——而且法律风险可能更小。一些专家指责OpenAI从ChatGPT接受培训的未经许可的工作中获利;ChatGPT 的数据集包含各种各样的公共网站。但插件可以通过允许公司保留对其数据的完全控制权来解决这个问题。