OpenAI 提议使用 GPT-4 进行内容审核
OpenAI 表示,它一直在自己的平台上测试使用 GPT-4 进行内容审核。该公司声称,新系统可以促进更快的政策变化,简化标签一致性,并显著减少人工审核工作。
内容审核对于数字平台来说至关重要,但又极具挑战性,通常依靠大量人工审核员,并由特定领域的机器学习模型支持,以过滤有害或不当内容。这个过程通常耗时、不一致,而且对审核员来说非常耗脑力。
如果 OpenAI 最近对 GPT-4 的探索被证明是有效的,那么它将提供一个革命性的解决方案。通过他们的技术,一旦建立了内容政策指南,首先使用 GPT-4 根据这些指南评估内容。然后,他们将人类判断与模型的决策进行对比,识别和解决差异,澄清歧义,并进一步完善政策。OpenAI 声称,这个过程通常需要几个月的时间,现在可以在几个小时内完成。
OpenAI 指出了他们的方法的三大主要优势:
- 标签更一致。内容政策不断发展,而且通常非常详细。人们可能会对政策有不同的理解,或者某些版主可能需要更长时间才能消化新的政策变化,从而导致标签不一致。相比之下,LLM 对措辞的细微差异很敏感,可以立即适应政策更新,为用户提供一致的内容体验。
- 更快的反馈循环。政策更新周期(制定新政策、贴标签和收集人工反馈)通常是一个漫长而冗长的过程。GPT-4 可以将这个过程缩短到几个小时,从而能够更快地应对新的危害。
- 减轻精神负担。持续接触有害或令人反感的内容会导致人工审核员情绪疲惫和心理压力。自动化此类工作有利于相关人员的福祉。
OpenAI 表示,他们的技术优于Anthropic 等公司使用的Constitutional AI方法,后者依赖于模型自身对安全与否的内在判断。他们的模型专注于特定于平台的策略迭代,速度更快,所需工作量更少。
虽然该系统具有开创性,但并非完美无缺。该公司承认,由于模型的训练,不良偏见可能会影响判断。持续监控和人工验证对于确保准确性至关重要。他们强调了人类专业知识的重要性,尤其是对于细微的决策,并将在这种情况下让人类参与其中。此外,他们热衷于进一步增强 GPT-4,并希望整合思路推理和自我批评机制。
OpenAI 的努力是在人工智能社区因内容审核而面临各种批评之后做出的。过去曾有用户操纵 ChatGPT 生成不当内容,这些内容随后在社交平台上疯传。该公司一直在解决这些“越狱”方法,以维护平台的完整性。
最引人注目的争议是一份报告,该报告强调了 OpenAI 与肯尼亚工人合作标记令人反感的内容。这项合作让工人接触到令人痛苦的内容,导致他们声称受到了创伤。
GPT-4 融入内容审核是人工智能能力的一个里程碑。OpenAI 安全系统负责人 Lilian Weng 表示希望看到更多平台采用这种方法,并强调该技术的社会效益。
好啦,今天就到这里,如果你也想在体验ChatGPT4.0
具有GPT4对话、DALL·E3绘画、GPT4V看图助手。
可以点击下方红色链接进行使用。