OpenAI 超级智能协同计划的悖论
OpenAI 最近宣布了一项大胆的新计划:在四年内解决超级人工智能的对齐问题。该公司认为,超级人工智能(一种理论系统,其能力远远超越人类能力,甚至比通用人工智能 (AGI) 更强大)将成为有史以来最具变革性的技术。
从目前的情况来看,可以想象,在未来十年内,人工智能系统将在大多数领域超越专家的技能水平,并开展与当今最大的公司之一一样多的生产活动。 – OpenAI
尽管 OpenAI 认识到超级智能 AI 可以带来的巨大好处,但它也坦言,它存在潜在的风险,包括可能削弱人类的能力,甚至导致人类灭绝。
然而,该公司相信超级智能协调问题的重要性,这促使他们分配了 20% 的可用计算资源来解决这一问题。他们提出了一个核心问题(重点是我的):
“我们如何确保比人类更聪明的人工智能系统能够遵循人类的意图?”
但这个问题本身就自相矛盾吗?如果我们可以明确地指挥人工智能,那么它真的能成为超级智能吗?相反,如果人工智能是超级智能,那肯定意味着我们无法确切地控制它吗?OpenAI 对此有不同的看法。
他们认为超级智能对齐从根本上来说是一个机器学习问题。他们组建了一个新的超级对齐团队,由 Ilya Sutskever(OpenAI 联合创始人兼首席科学家)和 Jan Leike(对齐主管)领导,计划构建一个可以迭代对齐未来超级智能的 AI 系统。
然而,这种方法并不新鲜。去年,OpenAI 公布了他们的对齐研究方法(当时专注于 AGI),并概述了它的一些局限性:
- 对齐问题中最困难的部分可能与为我们的 AI 系统设计可扩展且对齐的训练信号无关。即使这是真的,这样的训练信号也是必要的。
- 从根本上来说,对齐能够显著加速对齐研究的模型可能并不比对齐 AGI 更容易。换句话说,如果没有正确对齐,那些能够帮助对齐研究的最差的模型可能已经太危险了。如果这是真的,那么我们自己的系统在解决对齐问题方面不会给我们带来太多帮助。
鉴于 AGI 协调面临的这些公认挑战,人们可能会想知道为什么 OpenAI 现在将重点转移到超级智能上?不可否认,我们在过去一年中看到了大型语言模型 (LLM) 的重大进步,但要使当前系统广泛有用和安全,仍存在许多障碍。我们尚未证明我们可以协调当前系统,更不用说解决协调 AGI 这一更为复杂的挑战了。
OpenAI 表示,他们“选择专注于超级智能而不是 AGI,以强调更高的能力水平。我们对未来几年技术的发展速度存在很大的不确定性,因此我们选择瞄准更困难的目标,以调整更强大的系统。”
OpenAI 专注于超级智能的理由提出的问题比它解答的问题还多。例如,将重点转移到超级智能(目前仍是一个理论概念)是否是对资源的最佳利用?
此外,考虑到我们仍在努力协调不太复杂的人工智能系统,超级智能的飞跃是否过于雄心勃勃?将注意力集中在这个遥远且基本是理论性的目标上是否会削弱当前让人工智能更安全、更有用的努力?
最后,对超级智能的关注是否会无意中助长人工智能的炒作,培养不切实际的期望或恐惧,并可能扭曲公众话语?
OpenAI 的新尝试无疑是大胆的,但时间将证明这是他们远大抱负的证明,还是带有天真的傲慢的表现。
好啦,今天就到这里,如果你也想在体验ChatGPT4.0
具有GPT4对话、DALL·E3绘画、GPT4V看图助手。
可以点击下方红色链接进行使用。