OpenAI 开始训练新的 AI 模型并成立安全委员会
在训练其新的前沿 AI 模型之前,OpenAI 宣布成立一个新的内部安全委员会。
ChatGPT 背后的初创公司 OpenAI 在训练其迄今为止最大的 AI 模型之前已经成立了一个安全委员会。
OpenAI 今天(5 月 28 日)通过博客文章宣布,其首席执行官 Sam Altman 和主席 Bret Taylor 将与 Adam D’Angelo 和 Nicole Seligman 一起组建安全委员会。
塞利格曼于 2024 年 3 月加入 OpenAI 董事会,并担任太空探索公司 Intuitive Machines 的董事。
OpenAI 的内部安全和政策专家,如首席科学家 Jakub Pachocki 和安全系统负责人 Lilian Weng,也将成为该委员会的成员。
OpenAI 表示,其委员会将在其向通用人工智能(AGI)迈进之前帮助提供安全和道德决策。
ChatGPT中文网页版
AGI 是人工智能的一种理论形式,其知识超越人类。
安全委员会的首要任务是扩大 OpenAI 的保护程序。在接下来的 90 天内,该委员会将需要对 OpenAI 的现有程序进行修改,然后将这些修改公开发布。
OpenAI 澄清说,将继续与外部网络安全专家进行磋商。
该公司目前与曾担任美国国家安全局网络安全主管的罗布·乔伊斯(Rob Joyce)以及曾在美国司法部工作的约翰·卡林(John Carlin)合作。
根据研究和分析公司GlobalData的人工智能高管简报,到2030年,全球人工智能市场规模将超过10,370亿美元,从2023年起实现39%的复合年增长率。
在其 2024 年技术情绪调查中,超过 20% 的企业回答说他们已经在工作负载中高度采用 AI。
随着人工智能在网络和商业领域变得无处不在,世界各国纷纷对其使用进行规范。