YouTube 在對抗 AI 生成的垃圾內容方面,推出了一項新武器,而這項武器就是你。
大約從 3 月 17 日開始,YouTube 行動應用程式上的玩家(用戶)在評價影片時,開始遇到一個新的彈出式提示。問題是:「這感覺像 AI 廢片嗎?」或「這部影片有多像低品質 AI 內容?」回應範圍從「一點也不像」到「非常像」,讓觀看者能夠直接標記他們認為是機器生成且製作粗糙的內容。
YouTube 試圖解決的問題規模
這並非 YouTube 無的放矢。該平台長期以來充斥著 AI 生成的內容,而其現有的自動化和人工審核系統已無法跟上腳步。一項研究發現,在一個全新的 YouTube 帳戶上,大約有 21% 的前 500 部推薦影片被識別為 AI 廢片,另有 33% 屬於更廣泛的「腦殘內容」類別,即內容空洞、重複性高的內容。
這個問題對年輕觀眾的影響尤其嚴重。根據《紐約時報》的一項調查,發現有數千部針對兒童的影片,聲稱具有教育意義,但實際上主要是為了吸引注意力而製作,實際付出的努力和價值極少。專家們認為,這對年輕觀眾的發展構成了真正的擔憂。
YouTube 目前並未禁止創作者使用 AI 工具,也沒有強制要求披露 AI 生成的內容。創作者面臨的風險是,如果他們的內容被標記為低品質,可能會失去營利資格,但執行力度充其量只能說是參差不齊。
透過眾包方式進行偵測,但有重大限制
新的觀眾提示為 YouTube 現有的偵測系統增加了第三層,實際上是將其龐大的觀眾群轉變為非正式的內容審核力量。每月有超過 20 億的登入用戶訪問該平台,這意味著有大量的潛在回饋。
然而,問題在於:YouTube 並未解釋這些數據將如何被實際使用。該公司尚未澄清觀眾評級的權重有多大,是否會觸發對標記內容的自動處理,或者系統將如何處理誤判,即合法的真人製作內容被錯誤標記的情況。
危險
X 上至少有一位玩家提出了擔憂,認為大規模收集這些回饋可能會被用作 AI 影片模型的訓練數據,從而幫助未來的 AI 生成內容看起來更具說服力,更難被偵測。
這並非一個小眾觀點。如果 Google 將玩家標記為「廢片」的數據輸入其 Veo 影片生成模型,最終結果可能是 AI 被專門訓練來規避人類標記為低品質的模式。無論這是否是其意圖,YouTube 都沒有對此作出回應。
這對創作者和玩家意味著什麼
對創作者而言,風險變得更加明顯。如果觀眾的情緒直接影響內容的排名或營利方式,即使是將 AI 工具融入工作流程的合法創作者,也可能因為負面評級而處於不利地位。
對玩家而言,這是平台內容審核工作方式上一個真正有趣的轉變。YouTube 並非僅僅依賴演算法,而是押注實際觀看的玩家對哪些內容感覺空洞且是機器生成的,有更直觀的判斷。
這項押注是否會成功,完全取決於 YouTube 如何使用它收集到的數據,而目前這仍然是一個懸而未決的問題。請務必查看更多內容:




