DALLE-3 现已面向所有 ChatGPT Plus 和企业用户推出
OpenAI 宣布,其最强大的图像模型DALL·E 3现已在 ChatGPT Plus 和 Enterprise 中推出。OpenAI 经过数月的测试和安全改进以限制有害内容的生成,才将 ChatGPT 推向付费级别。
OpenAI 表示,它已为 DALL·E 3 实施了多层安全系统,确保生成的图像更可能避开有害、暴力、成人或仇恨内容。任何内容在到达最终用户之前,都会经过细致的安全检查——首先是用户提交提示时,然后是系统生成视觉效果时。
OpenAI 与微软 Bing 团队、红队专家和安全研究人员合作,收集了早期用户反馈,并修补了 DALLE-3 早期版本中的关键漏洞。例如,测试人员强调了可能生成图形内容或具有欺骗性的图像的极端情况。反馈还导致采取了一些措施,限制 DALL-E 3 模仿在世艺术家的风格或生成公众人物图像的能力。
OpenAI 表示,这些安全防护措施将通过用户反馈不断改进。该公司敦促 ChatGPT 用户使用标记工具标记任何不安全或不准确的输出。这些真实世界的数据有助于 OpenAI 按照其核心任务负责任地训练 AI。
OpenAI 还强调了个人可以选择不将自己的图像用于未来图像生成模型训练的方式。他们可以阻止GPTBot 抓取自己的网站,也可以填写表格,将他们希望从现有训练数据中删除的图像发送给 OpenAI。
OpenAI 还透露,它正在开发“出处分类器”的初始原型,这是一种内部工具,可以识别未经修改的图像是否来自 DALL-E 3,准确率超过 99%。即使图像经过裁剪、调整大小或 JPEG 压缩等常见修改,它的准确率仍能保持在 95% 以上。重要的是,它不会提供明确的结论,只会表明图像是由人工智能生成的可能性。OpenAI 认为,需要整个人工智能行业的合作来开发识别合成媒体的强大技术。
谷歌和 Meta 也在研究类似的解决方案。谷歌 DeepMind 最近推出了SynthID,这是一款数字水印工具,可以无形地标记人工智能生成的图像。与此同时,Meta AI 发表了一项关于一种名为Stable Signature的隐形水印技术的研究,用于区分生成模型创建的图像。各大人工智能公司对出处分类器和水印的开发凸显了解决合成媒体潜在滥用问题的优先事项。
随着 DALL-E 3 的推出,OpenAI 旨在平衡安全性和创造潜力。负责任的测试和开发将使该技术惠及专业人士、艺术家和 AI 爱好者。有关 OpenAI 如何负责任地准备 DALL-E 3 以供广泛发布的更多详细信息,请查看DALL-E 3 系统卡。
好啦,今天就到这里,如果你也想在体验ChatGPT4.0
具有GPT4对话、DALL·E3绘画、GPT4V看图助手。
可以点击下方红色链接进行使用。