OpenAI 向 API 用户阐明其数据隐私惯例

随着 OpenAI 迅速扩大其突破性 AI 产品的使用范围,围绕如何处理用户数据的问题也浮现出来。在今年早些时候对其数据隐私实践做出重大改变之后,OpenAI 现在进一步明确了如何处理用户数据,尤其是针对使用其 API 的开发人员。

此前,2023 年 3 月 1 日之前通过 API 提交的数据可能会被纳入模型训练。但自从 OpenAI 实施了更严格的数据隐私政策后,这种情况就不再存在了。

用于模型推理的 OpenAI API 的输入和输出(直接通过 API 调用或通过Playground)不会成为训练数据的一部分,除非您明确选择加入。

该公司强调,可通过 API 访问的模型都是经过版本控制并已完成训练的——它们不会通过 API 请求进行重新训练或实时更新。

此外,用户上传的用于微调的数据仅用于定制该用户的模型。它不会流入 OpenAI 的一般训练数据。OpenAI 确实保留微调模型的所有权,但访问权限仅限于提供训练数据的用户。这些用户可以随时删除他们的训练数据或微调模型。

该公司指出,它只能出于潜在滥用监控和调查的目的访问 API 数据。为了确保安全且负责任地使用其模型,API 输入和输出数据可能会通过安全分类器运行。除非出于法律原因需要,否则这些数据将在 30 天内删除,并且只有获得授权的 OpenAI 员工以及专门的第三方承包商 (受保密和安全义务的约束)才能访问。

模型并未使用通过安全分类器运行的数据进行训练。

如果 OpenAI 发现 API 用户违反了他们的政策,他们可能会要求进行更改,或者对于重复或严重的问题,他们可能会暂停或终止帐户。

最后,该公司详细介绍了他们在所有产品和服务中实施和维护的企业级安全和合规措施:

  • SOC 2 类型 2
  • GDPR
  • CCPA 和其他州隐私法
  • 健康保险隐私及责任法

OpenAI 显然已经改进了其数据政策,加强了隐私保护和透明度,特别是在访问 API 用户数据方面。对潜在的未经同意的数据使用持谨慎态度的企业现在可能会不那么担心了。

然而,要保持这种信任,OpenAI 必须继续努力,坚持严格的安全标准,并最大程度地透明地处理用于模型训练的任何第一方数据。随着公司的不断发展,其对隐私、安全和负责任地使用人工智能的承诺将有助于推动企业采用人工智能。


好啦,今天就到这里,如果你也想在体验ChatGPT4.0

具有GPT4对话、DALL·E3绘画、GPT4V看图助手。

可以点击下方红色链接进行使用。

https://chatgp4.com

标签



热门标签