YouTube ha una nuova arma nella sua guerra contro la spazzatura generata dall'IA, e quell'arma sei tu.
A partire dal 17 marzo circa, gli utenti sull'app mobile di YouTube hanno iniziato a incontrare un nuovo pop-up quando valutano i video. La domanda? "Sembra spazzatura creata dall'IA?" o "Quanto questo video sembra IA di bassa qualità?" Le risposte vanno da "Per niente" a "Estremamente", dando agli spettatori una linea diretta per segnalare contenuti che ritengono siano stati generati da macchine e con poco sforzo.
La portata del problema che YouTube sta cercando di risolvere
Non è YouTube che va nel panico per nulla. La piattaforma è sommersa da contenuti generati dall'IA da un po' di tempo ormai, e i suoi sistemi automatizzati e di revisione umana esistenti non hanno tenuto il passo. Uno studio ha rilevato che circa il 21% dei primi 500 video consigliati mostrati a un account YouTube nuovo di zecca sono stati identificati come "AI slop", con un altro 33% rientrante in una categoria più ampia di "brainrot" di contenuti ripetitivi e di bassa sostanza.
Il problema colpisce particolarmente duramente i pubblici più giovani. Un'indagine del New York Times ha trovato migliaia di video rivolti ai bambini che affermavano di essere educativi ma che erano stati creati principalmente per catturare l'attenzione con uno sforzo o un valore effettivo minimi. Gli esperti hanno segnalato questo come una preoccupazione genuina per lo sviluppo dei giovani spettatori.
YouTube attualmente non vieta ai creatori di utilizzare strumenti IA, e non c'è un requisito generale per divulgare i contenuti generati dall'IA. Il rischio per i creatori è perdere la monetizzazione se i loro contenuti vengono segnalati come di bassa qualità, ma l'applicazione è stata, nel migliore dei casi, incoerente.
Rilevamento tramite crowdsourcing, con alcune grandi avvertenze
Il nuovo prompt per gli spettatori aggiunge un terzo livello ai sistemi di rilevamento esistenti di YouTube, trasformando essenzialmente il suo pubblico massiccio in una forza di moderazione informale. Con oltre 2 miliardi di utenti registrati che visitano la piattaforma mensilmente, si tratta di un'enorme quantità di feedback potenziale.
Ecco il punto, però: YouTube non ha spiegato come verranno effettivamente utilizzati questi dati. L'azienda non ha chiarito quanto peso avranno le valutazioni degli spettatori, se attiveranno azioni automatiche contro i contenuti segnalati, o come il sistema gestirà i falsi positivi in cui contenuti legittimi creati da esseri umani vengono etichettati erroneamente.
pericolo
Almeno un utente su X ha sollevato la preoccupazione che la raccolta di questo feedback su larga scala possa servire come dati di addestramento per modelli video IA, potenzialmente aiutando i futuri contenuti generati dall'IA a sembrare più convincenti e più difficili da rilevare.
Questa non è un'opinione marginale. Se Google fornisse dati di "spazzatura" etichettati dagli spettatori ai suoi modelli di generazione video Veo, il risultato finale potrebbe essere un'IA specificamente addestrata per evitare i pattern che gli umani segnalano come di bassa qualità. Che sia questa l'intenzione o meno, YouTube non l'ha affrontato.
Cosa significa questo per creatori e spettatori
Per i creatori, la posta in gioco è diventata più visibile. Se il sentimento degli spettatori influenza direttamente come i contenuti vengono classificati o monetizzati, anche i creatori legittimi che utilizzano strumenti IA come parte del loro flusso di lavoro potrebbero ritrovarsi dalla parte sbagliata di una valutazione negativa.
Per gli spettatori, è un cambiamento genuinamente interessante nel modo in cui funziona la moderazione della piattaforma. Invece di fidarsi solo degli algoritmi, YouTube sta scommettendo che le persone che guardano effettivamente hanno un miglior senso istintivo di ciò che appare vuoto e generato da macchine.
Se questa scommessa pagherà dipende interamente da come YouTube utilizzerà i dati che raccoglie, il che al momento rimane una domanda aperta. Assicurati di controllare altro:




