YouTube hat eine neue Waffe im Kampf gegen KI-generierten Müll, und diese Waffe bist du.
Ab dem 17. März sahen Nutzer auf der YouTube-Mobil-App eine neue Pop-up-Abfrage, wenn sie Videos bewerteten. Die Frage? "Fühlt sich das wie KI-Pampe an?" oder "Wie sehr fühlt sich dieses Video wie minderwertige KI an?" Die Antworten reichen von "Überhaupt nicht" bis "Extrem", was den Zuschauern eine direkte Möglichkeit gibt, Inhalte zu markieren, die ihrer Meinung nach maschinell generiert und mit geringem Aufwand erstellt wurden.
Das Ausmaß des Problems, das YouTube zu lösen versucht
Das ist kein Panikmache von YouTube aus dem Nichts. Die Plattform ertrinkt seit einiger Zeit in KI-generierten Inhalten, und ihre bestehenden automatisierten und menschlichen Überprüfungssysteme sind nicht Schritt gehalten. Eine Studie ergab, dass etwa 21% der ersten 500 empfohlenen Videos, die einem brandneuen YouTube-Konto angezeigt wurden, als KI-Pampe identifiziert wurden, und weitere 33% fielen in eine breitere Kategorie von "Brainrot" für inhaltsarme, repetitive Inhalte.
Das Problem trifft jüngere Zielgruppen besonders hart. Eine Untersuchung der New York Times ergab Tausende von Videos, die sich an Kinder richteten und behaupteten, lehrreich zu sein, aber hauptsächlich dazu dienten, die Aufmerksamkeit mit minimalem Aufwand oder Wert zu fesseln. Experten bezeichneten dies als ernste Sorge für die Entwicklung junger Zuschauer.
YouTube verbietet Erstellern derzeit nicht die Nutzung von KI-Tools, und es gibt keine pauschale Anforderung, KI-generierte Inhalte offenzulegen. Das Risiko für Ersteller besteht darin, die Monetarisierung zu verlieren, wenn ihre Inhalte als minderwertig eingestuft werden, aber die Durchsetzung war bestenfalls inkonsistent.
Crowdsourcing-Erkennung, mit einigen großen Vorbehalten
Die neue Zuschauerabfrage fügt den bestehenden Erkennungssystemen von YouTube eine dritte Ebene hinzu und verwandelt damit im Wesentlichen seine riesige Zielgruppe in eine informelle Moderationskraft. Mit über 2 Milliarden eingeloggten Nutzern, die die Plattform monatlich besuchen, ist das eine enorme Menge an potenziellem Feedback.
Die Sache ist jedoch: YouTube hat nicht erklärt, wie diese Daten tatsächlich verwendet werden. Das Unternehmen hat nicht klargestellt, wie viel Gewicht die Bewertungen der Zuschauer haben werden, ob sie automatische Maßnahmen gegen markierte Inhalte auslösen werden oder wie das System mit Fehlalarmen umgehen wird, bei denen legitime, von Menschen erstellte Inhalte falsch gekennzeichnet werden.
Gefahr
Mindestens ein Nutzer auf X hat die Bedenken geäußert, dass das Sammeln dieses Feedbacks in großem Maßstab als Trainingsdaten für KI-Videomodelle dienen könnte, was zukünftigen KI-generierten Inhalten helfen könnte, überzeugender und schwerer zu erkennen zu sein.
Das ist keine Randmeinung. Wenn Google von den Zuschauern als "Pampe" gekennzeichnete Daten in seine Veo-Videogenerierungsmodelle einspeist, könnte das Endergebnis eine KI sein, die speziell darauf trainiert ist, Muster zu vermeiden, die Menschen als minderwertig einstufen. Ob das die Absicht ist oder nicht, hat YouTube nicht angesprochen.
Was das für Ersteller und Zuschauer bedeutet
Für Ersteller sind die Einsätze gerade sichtbarer geworden. Wenn die Stimmung der Zuschauer direkt beeinflusst, wie Inhalte eingestuft oder monetarisiert werden, könnten selbst legitime Ersteller, die KI-Tools als Teil ihres Workflows nutzen, am falschen Ende einer negativen Bewertung landen.
Für Zuschauer ist dies eine wirklich interessante Verschiebung der Plattformmoderation. Anstatt sich nur auf Algorithmen zu verlassen, wettet YouTube darauf, dass die Leute, die tatsächlich zuschauen, ein besseres Bauchgefühl dafür haben, was sich hohl und maschinell generiert anfühlt.
Ob diese Wette aufgeht, hängt ganz davon ab, wie YouTube die gesammelten Daten verwendet, was derzeit eine offene Frage bleibt.Schauen Sie sich unbedingt mehr an:




