O YouTube tem uma nova arma na sua guerra contra o lixo gerado por IA, e essa arma é você.
A partir de 17 de março, usuários no aplicativo móvel do YouTube começaram a encontrar um novo pop-up ao avaliar vídeos. A pergunta? "Isso parece lixo de IA?" ou "O quão baixo em qualidade de IA este vídeo parece?". As respostas variam de "Nada" a "Extremamente", dando aos espectadores uma linha direta para sinalizar conteúdo que eles acham que foi gerado por máquina e com baixo esforço.
A Escala do Problema que o YouTube Está Tentando Resolver
Isso não é o YouTube entrando em pânico sem motivo. A plataforma tem se afogado em conteúdo gerado por IA há algum tempo, e seus sistemas automatizados e de revisão humana existentes não acompanharam. Um estudo descobriu que aproximadamente 21% dos primeiros 500 vídeos recomendados exibidos para uma conta nova do YouTube foram identificados como lixo de IA, com outros 33% caindo em uma categoria mais ampla de "brainrot" de conteúdo repetitivo e de baixa substância.
O problema atinge especialmente o público mais jovem. Uma investigação do New York Times encontrou milhares de vídeos direcionados a crianças que alegavam ser educacionais, mas foram construídos principalmente para prender a atenção com esforço ou valor real mínimo. Especialistas apontaram isso como uma preocupação genuína para o desenvolvimento dos jovens espectadores.
O YouTube atualmente não proíbe criadores de usar ferramentas de IA, e não há um requisito geral para divulgar conteúdo gerado por IA. O risco para os criadores é perder a monetização se o conteúdo for sinalizado como de baixa qualidade, mas a aplicação tem sido inconsistente, na melhor das hipóteses.
Detecção Crowdsourced, Com Algumas Grandes Ressalvas
O novo prompt para o espectador adiciona uma terceira camada sobre os sistemas de detecção existentes do YouTube, essencialmente transformando sua audiência massiva em uma força de moderação informal. Com mais de 2 bilhões de usuários logados visitando a plataforma mensalmente, isso representa uma quantidade enorme de feedback potencial.
A questão é que o YouTube não explicou como esses dados serão realmente usados. A empresa não esclareceu quanto peso as avaliações dos espectadores terão, se elas acionarão ações automáticas contra o conteúdo sinalizado, ou como o sistema lidará com falsos positivos onde conteúdo legítimo feito por humanos for mal rotulado.
perigo
Pelo menos um usuário no X levantou a preocupação de que coletar esse feedback em escala possa servir como dados de treinamento para modelos de vídeo de IA, potencialmente ajudando o futuro conteúdo gerado por IA a parecer mais convincente e mais difícil de detectar.
Essa não é uma opinião de nicho. Se o Google alimentar dados de "lixo" rotulados pelos espectadores em seus modelos de geração de vídeo Veo, o resultado final pode ser uma IA especificamente treinada para evitar os padrões que os humanos sinalizam como de baixa qualidade. Seja essa a intenção ou não, o YouTube não abordou isso.
O Que Isso Significa Para Criadores e Espectadores
Para os criadores, os riscos acabaram de ficar mais visíveis. Se o sentimento do espectador influenciar diretamente como o conteúdo é classificado ou monetizado, até mesmo criadores legítimos que usam ferramentas de IA como parte de seu fluxo de trabalho podem se encontrar do lado errado de uma avaliação negativa.
Para os espectadores, é uma mudança genuinamente interessante na forma como a moderação da plataforma funciona. Em vez de confiar apenas em algoritmos, o YouTube está apostando que as pessoas que realmente assistem têm um melhor senso intuitivo do que parece vazio e gerado por máquina.
Se essa aposta valerá a pena depende inteiramente de como o YouTube usará os dados que coleta, o que no momento permanece uma questão em aberto. Certifique-se de conferir mais:




