YouTube は、AI生成のゴミ動画との戦いに新たな武器を導入しました。その武器とは、あなた自身です。
3月17日頃から、YouTubeモバイルアプリのユーザーは、動画を評価する際に新しいポップアッププロンプトが表示されるようになりました。質問は「これはAIによる低品質な動画だと感じますか?」または「この動画はどの程度AIによる低品質だと感じますか?」というものです。回答は「全く感じない」から「非常に感じる」まであり、視聴者は機械生成された低品質なコンテンツだと考えるものを直接報告できるようになります。
YouTubeが解決しようとしている問題の規模
これはYouTubeが何もないことにパニックになっているわけではありません。このプラットフォームはしばらくの間、AI生成コンテンツに溺れており、既存の自動および人間のレビューシステムが追いついていませんでした。ある調査によると、新品のYouTubeアカウントに表示された最初の500個の推奨動画のうち、約21%がAIによる低品質な動画と特定され、さらに33%が低品質で反復的なコンテンツという、より広範な「ブレインロット」カテゴリに分類されました。
この問題は特に若い視聴者に大きな影響を与えています。ニューヨーク・タイムズ紙の調査では、教育的であると主張しながらも、最小限の労力と価値で視聴者の注意を引きつけるために主に作成された、子供をターゲットにした数千本の動画が発見されました。専門家はこれを若い視聴者の発達にとって真の懸念事項として指摘しました。
YouTubeは現在、クリエイターがAIツールを使用することを禁止しておらず、AI生成コンテンツの開示を義務付ける包括的な要件もありません。クリエイターにとってのリスクは、コンテンツが低品質としてフラグ付けされた場合に収益化を失うことですが、施行は最良でも一貫性がありませんでした。
いくつかの大きな注意点と共に、検出をクラウドソーシングする
新しい視聴者プロンプトは、YouTubeの既存の検出システムの上に3番目のレイヤーを追加し、実質的にその巨大な視聴者を非公式なモデレーション部隊に変えるものです。毎月20億人以上のログインユーザーがプラットフォームを訪れていることを考えると、これは膨大な量の潜在的なフィードバックです。
しかし、問題はこうです。YouTubeはこのデータが実際にどのように使用されるかを説明していません。同社は、視聴者の評価がどの程度の重みを持つのか、フラグ付けされたコンテンツに対して自動的な措置がトリガーされるのか、あるいは正当な人間が作成したコンテンツが誤ってラベル付けされた場合の誤検出をシステムがどのように処理するのかを明らかにしていません。
危険
X(旧Twitter)のあるユーザーは、このフィードバックを大規模に収集することが、AI動画モデルのトレーニングデータとして使用され、将来のAI生成コンテンツがより説得力があり、検出が困難になるのを助ける可能性があるという懸念を表明しています。
それは的外れな意見ではありません。もしGoogleが視聴者によって「ゴミ」とラベル付けされたデータをそのVeo動画生成モデルにフィードした場合、最終的な結果は、人間が低品質としてフラグを立てるパターンを回避するように特別にトレーニングされたAIになる可能性があります。それが意図されているかどうかに関わらず、YouTubeはそれに対処していません。
クリエイターと視聴者にとっての意味
クリエイターにとって、リスクはより目に見えるものになりました。視聴者の感情がコンテンツのランキングや収益化の方法に直接影響を与える場合、ワークフローの一部としてAIツールを使用する正当なクリエイターでさえ、否定的な評価の対象となる可能性があります。
視聴者にとっては、プラットフォームのモデレーションが機能する方法における真に興味深い変化です。アルゴリズムだけに頼るのではなく、YouTubeは、実際に視聴している人々が、空虚で機械生成されたように感じるものについて、より良い直感を持っていると賭けています。
その賭けが成功するかどうかは、YouTubeが収集したデータをどのように使用するかに完全に依存しており、現時点では未解決の問題のままです。さらに多くの情報をチェックしてください。




