11月15日 消息,YouTube最近宣布了一项新规,要求创作者标明其视频是否包含由人工智能生成的内容,旨在应对虚假视频、深度伪造以及侵犯艺术家版权的音轨。这一决定是为了遏制伪造内容的传播,确保观众对视频真实性有清晰的认知。
YouTube 的措辞如下:
我们将要求创作者披露何时创建了真实的修改或合成内容,包括使用人工智能工具。当创作者上传内容时,我们将提供新选项供他们选择,以表明内容包含真实的更改或合成材料。例如,这可能是人工智能生成的视频,真实地描述了从未发生过的事件,或者内容显示某人说或做了他们实际上没有做过的事情。
根据新规,创作者在上传视频时将面临新的选择,以指示视频是否包含逼真的合成素材,如使用AI工具生成的内容。具体而言,如果视频包含真实逼真的合成内容,创作者需要在视频描述中添加标签,说明内容已被修改或数字生成。对于涉及重要话题的视频,如选举、冲突、暴力、公共卫生问题或知名人物,创作者还需特别标记。
未遵守规定的创作者可能会面临多种处罚,包括但不限于内容删除、暂停YouTube合作伙伴计划资格等。YouTube产品副总裁Jennifer Flannery O'Connor和Emily Moxley在声明中警告说,那些坚持不标明信息的创作者可能会受到严重的制裁。
YouTube表示,他们拥有全球数万名人工审核人员,这些人工审核人员通过与AI技术的结合,帮助辨别和改善可能违规的内容。这也包括使用生成式AI技术来培训和改进审核人员的分类器,以更好地发现未经披露的伪造材料。
为了平衡内容创作和审核,YouTube鼓励创作者对其视频是否经过数字修改进行透明披露。这项新规的支持功能将在未来数月和2024年逐步推出,以确保YouTube在日益增多的AI生成媒体中保持内容的透明度。