OpenAI 邀请领域专家加入新的 AI 安全红队网络
OpenAI 公开招募不同领域的专家加入新的“红队网络”,专注于严格评估和压力测试 OpenAI 的 AI 模型。目标是在发布之前识别潜在风险并提高 ChatGPT 和 DALL-E 等系统的安全性。
红队测试(一种通过模拟对抗性攻击来识别漏洞的常用方法)长期以来一直是 OpenAI 迭代部署 AI 系统流程的一部分。虽然该公司之前曾与外部专家合作进行过类似的评估,但新计划旨在从值得信赖的专家社区中获取更持续、更迭代的意见,贯穿整个开发阶段。
OpenAI 在公告中表示:“评估人工智能系统需要了解各种领域、不同的观点和生活经验。”该公司强调寻求地域多样性以及心理学、法律、教育、医疗保健等领域的专业知识。
此次公开招募最引人注目的一点是它强调多样性——不仅在专业知识方面,而且在地理代表性方面。感兴趣的领域远远超出了传统的计算机科学或人工智能研究,涵盖了生物学、法律甚至语言学等领域。这种多学科方法旨在全面了解与人工智能技术相关的风险和机遇。
网络成员将签署保密协议,并因 OpenAI 委托的红队项目而获得报酬。虽然参与情况保密,但 OpenAI 历来会在 ChatGPT 的系统卡等文档中发布过去红队合作的见解。
该计划符合 OpenAI 的既定使命,即开发广泛惠及所有人的通用人工智能。除了红队之外,OpenAI 还指出了其他合作机会,让专家们帮助塑造更安全的人工智能,例如向其开源存储库贡献评估。
参与者将包括个人主题专家、研究机构和民间社会组织。OpenAI 表示,他们将根据合适程度有选择地从网络成员中挑选项目成员,而不是让每位专家都参与测试每个新模型。每年投入的时间可能只有 5-10 小时。OpenAI 将以滚动方式选拔成员,直至 2023 年 12 月 1 日,之后计划重新评估该计划。
随着人工智能能力的快速发展,由不同专家进行的严格测试可以检查潜在的危害。建立这个网络为更广泛的社区提供了一个独特的机会,以帮助塑造更安全的人工智能的发展。我们鼓励有兴趣且有资格申请的人这样做。
好啦,今天就到这里,如果你也想在体验ChatGPT4.0
具有GPT4对话、DALL·E3绘画、GPT4V看图助手。
可以点击下方红色链接进行使用。