YouTube 有了一个对抗 AI 生成垃圾内容的新武器,而这个武器就是你。
从 3 月 17 日左右开始,YouTube 移动应用上的用户在评价视频时会看到一个新的弹窗提示。问题是:“这感觉像 AI 垃圾吗?”或者“这个视频在多大程度上感觉像低质量 AI?” 回答从“一点也不像”到“非常像”,让观众可以直接标记他们认为是由机器生成且敷衍了事的内容。
YouTube 试图解决的问题规模
这并非 YouTube 无端恐慌。该平台已经充斥 AI 生成内容一段时间了,现有的自动化和人工审核系统已跟不上步伐。一项研究发现,在一个全新的 YouTube 账号上,排名前 500 个推荐视频中,大约有 21% 被识别为 AI 垃圾,另有 33% 属于更广泛的“脑残内容”类别,即低质量、重复性内容。
这个问题对年轻观众尤其严重。 _《纽约时报》_ 的一项调查发现,有数千个针对儿童的视频声称具有教育意义,但实际上主要是为了吸引注意力而制作,几乎没有实际的努力或价值。专家认为这对年轻观众的发展是一个真正的担忧。
YouTube 目前并未禁止创作者使用 AI 工具,也没有强制要求披露 AI 生成内容。创作者面临的风险是,如果其内容被标记为低质量,可能会失去盈利能力,但执行情况充其量也只是不一致。
众包检测,但存在一些重大隐患
新的观众提示为 YouTube 现有的检测系统增加了第三层,实际上是 将庞大的用户群体变成非正式的审核力量。每月有超过 20 亿登录用户访问该平台,这意味着潜在的反馈量巨大。
然而,问题在于:YouTube 尚未解释这些数据将如何实际使用。该公司尚未明确观众评分的权重有多大,是否会触发对被标记内容的自动处理,或者系统将如何处理误报,即合法人工内容被错误标记的情况。
危险
X 上的至少一位用户提出了担忧,即大规模收集这些反馈可能被用作 AI 视频模型的训练数据,从而可能帮助未来的 AI 生成内容看起来更具说服力,更难被检测。
这并非个别观点。如果 Google 将用户标记的“垃圾”数据输入其 _Veo_ 视频生成模型,最终结果可能是专门训练以避免人类标记为低质量模式的 AI。无论这是否是其意图,YouTube 都未对此作出回应。
这对创作者和观众意味着什么
对创作者而言,风险变得更加明显。如果观众的看法直接影响内容的排名或盈利能力,即使是使用 AI 工具作为工作流程一部分的合法创作者,也可能发现自己处于负面评价的另一端。
对观众而言,这是平台审核工作方式的一个真正有趣的转变。YouTube 不再仅仅依赖算法,而是押注于实际观看内容的观众对哪些内容感觉空洞且机器生成有更好的直觉。
这种押注是否会成功,完全取决于 YouTube 如何使用它收集的数据,而目前这仍然是一个悬而未决的问题。请务必查看更多内容:




