曝 OpenAI 神秘模型「草莓」两周内上线,回答要花十几秒,订阅价格可能贵 10 倍
推荐使用GPT,国内可直接访问:https://www.chatgp4.com/
上个月,OpenAI CEO Altman通过一张晒出的草莓图片吸引了不少媒体的关注。而如今,草莓模型或许真的要“成熟”了。
据《The Information》报道,OpenAI计划在两周内发布“草莓”(Strawberry)模型,作为ChatGPT服务的一部分。需要注意的是,报道提到最终的发布日期可能会有所变化,因此请大家保持谨慎。可靠爆料人@apples_jimmy认为草莓模型有望在本周发布。同时,他表示OpenAI预计将在十月份推出一个名为GPT-4.x的新模型,可能叫做GPT-4.5。至于更强大的GPT-5模型,传闻有可能在12月推出,但为了稳妥起见,建议预期在2025年的第一季度或第二季度。
《The Information》指出,目前尚不清楚草莓模型将以何种形式推出。一种可能是,草莓模型将作为独立产品发布;另一种可能是,草莓模型会被整合到ChatGPT的模型选择菜单中,用户可以在不同的模型服务之间自由切换。
此前的报道提到,草莓模型与其他模型的最大区别在于它在回答问题之前懂得“思考”。草莓模型不仅在数学和编程方面表现优异,如果给予它更多的“思考”时间,它还能就客户主观性话题,如产品营销策略,提供有效的回答。
报道称,草莓模型的思考时间通常持续10到20秒,这样可以减少错误的发生。而且,由于草莓模型花费更多时间思考,它能够意识到何时需要向客户提出更多问题,以全面理解用户的需求。此外,草莓模型与GPT-4o模型也存在一些不同之处,尤其在最初版本中,草莓并不具备GPT-4o的多模态能力,只有文本输入和输出的功能。
据《The Information》分析,这可能是因为竞争对手也在推出类似产品,尽管草莓模型在某些方面(例如处理图像)尚不完善,OpenAI也只能加快推出步伐。@apples_jimmy进一步提醒,Anthropic和Google也在暗中准备他们的新模型,并计划在美国大选前后发布。
此外,对于用户而言,草莓模型的订阅价格令人关注。网传ChatGPT推出了一种新的付费档位ChatGPT Pro,并已经向部分用户推出,售价为200美元/月,比当前的20美元/月高出十倍。如果情况属实,这或许也印证了有关草莓模型的报道。《The Information》还指出,草莓模型在每小时使用次数方面可能会与ChatGPT Plus一样受到限制,而更高级别的订阅模型响应速度将更快。截至发稿前,OpenAI尚未对此事做出回应。
**剖析“草莓”模型**
OpenAI的草莓模型对我们意味着什么?
实际情况是,草莓模型的前身是“Q*”,一个在去年年底引发了广泛关注的神秘项目。去年11月,Sam Altman毫无预兆地被踢出了董事会,令公司上下震惊。他在会议上被通知此事,董事会给出的理由是他与团队在安全和风险管理方面无法达成一致,而这个风险正与“Q*”项目相关。
这个项目最初由Ilya Sutskever领导,他目前已离开OpenAI创业,专注于AI安全相关业务。马斯克曾表示,这个项目“对人类构成了威胁”,让人不禁好奇其背后到底隐藏着什么。
根据《The Information》及路透社的追踪,虽然无法获得完整信息,但我们知道数学运算能力是“Q*”的重要研究方向。尽管大模型在语言处理上已与人类不相上下,但其数学运算能力一直表现不佳。路透社报道称,早前“Q*”的数学表现相当于小学生的计算水平。目前有消息称,OpenAI内部已有项目的数学运算准确率已达到90%,进展显著。
需要强调的是,目前尚不清楚“Strawberry”究竟取得了何种程度的进展。如果“Strawberry”确实是“Q*”的升级版,那么它很可能继续在数学和计算能力上寻求突破。
**推理的核心**
推理到底是什么?
这个词在现实中显然有着广泛的定义。今年年初,香港中文大学的团队曾对模型的推理能力进行全面整理。推理最基本的定义可以分为三类:
1. **认知推理**:在不完整或不一致的知识中得出有意义的结论的能力。最常见的例子是拼图游戏,每一块都代表了整个画面的一部分,你需要通过整体的感觉和直觉拼凑出完整的图案。
2. **逻辑推理**:根据前提和这些前提之间的关系,有条理地得出结论。数学解题就是这种逻辑推理的典型例子,你可以根据已知条件逐步推算出结果。逻辑推理在人类的认知中占据着重要地位。
3. **自然语言推理**:整合显性和隐性知识,从而得出对世界的新见解。这种推理的过程就像推理小说中揭开凶案真相:需要结合各种线索和信息进行推测。
根据路透社从OpenAI内部获得的信息,“Strawberry”的目标是规划、访问互联网和执行深度研究。这些目标听起来更像是自然语言推理的增强,是否能够被称作推理能力的提升也未可知。
不过,OpenAI对于推理的定义并不狭窄,而是有更宏大的愿景。两个月前,OpenAI创始人之一John Schulman在播客中表示,GPT-4的进步在很大程度上得益于后训练技术。
“通过后训练,创造一个具备广大用户关心功能的模型是非常复杂的。”John Schulman表示,“这要求大量的投入和研发工作,从某种程度上形成了技术壁垒。”
他对推理的定义是:推理意味着需要计算或演绎。按此标准,机器在处理任务时所需的实时计算和逐步推理至关重要。
其实,即便一个人数学不好,他们依然可以理性地思考,而实现各种类型的推理。机器的数学能力为何显得如此重要?
我们可以这样理解:数学不仅仅是计算,它本身也是对信息的一种表达方式。数学语言依赖符号形式和精确性,能够以更低维的方式传达信息。
换句话说,大模型之所以能够生成自然语言,正是建立在对数学计算的理解之上,将自然语言转化为计算机能理解的语言。这一点早在19世纪,伟大的数学家乔治·布尔(George Boole)就已奠定基础。他希望通过数学推理来探讨上帝的存在,其最终目标是在《思维规律的探究》一书中,用微积分的符号语言表达推理思维的基本规律。
因此,当人们讨论AI的数学运算能力时,紧张的情绪常常随之而来。毕竟,突破数学语言的障碍,或许意味着我们离解锁思维活动不远了。
**人才变动与AI行业的未来**
有一个奇怪的现象是:OpenAI每当有重大的技术进展时,总伴随着剧烈的人事变动。今天,OpenAI内部再次有数名员工宣布离职。
前OpenAI音频AGI研究主管Alexis Conneau宣布离职,此前他曾是GPT-4o研究团队的重要技术成员。他在GPT-4o发布前曾激动地预告,这可能会开启人机交互的新时代。
另外,曾在OpenAI工作四年半的Arvind Neelakantan也宣布加入Meta AI研究团队。他曾参与多个重要项目的开发,包括Embeddings、GPT-3和GPT-4等,并表示在OpenAI的经历是他职业生涯的高光时刻。
今年以来,OpenAI经历了一波离职潮,创始团队呈现出分崩离析的态势。前首席科学家Ilya Sutskever刚退出不久,RLHF发明人之一Jan Leike也随之离开。离开的原因多种多样,除了去年的“宫斗大戏”的余波,个人职业规划也是考虑因素之一。
OpenAI的频繁人事变动短期内可能不会对AI竞争格局造成影响,但在行业盛传看衰的情况下,当下仍然稚嫩的AI行业已经无法承受长达一年的空窗期。随着模型消息的不断曝光,我们期待下半年能再次迎来一个波澜壮阔的AI大航海时代。即使不尽如人意,也比上半年乏味的AI新技术更具吸引力。
可以预见的是,底层AI技术模型的进步,将为整个应用市场带来强劲的推动力,就像当年推出的GPT-4那样,给我们带来久违的惊喜。到那时,作为用户的我们,将永远是最大的受益者。