YouTube получил новое оружие в своей войне против AI-генерируемого мусора, и это оружие — вы.
Примерно с 17 марта пользователи мобильного приложения YouTube стали сталкиваться с новым всплывающим окном при оценке видео. Вопрос звучал так: «Похоже ли это на AI-шлак?» или «Насколько это видео похоже на низкокачественный AI?» Ответы варьируются от «Совсем нет» до «Крайне», давая зрителям прямой способ пометить контент, который, по их мнению, был сгенерирован машиной и сделан без особых усилий.
Масштаб проблемы, которую YouTube пытается решить
Это не паника YouTube на пустом месте. Платформа уже давно тонет в AI-генерируемом контенте, а существующие автоматизированные и человеческие системы проверки не успевают. Исследование показало, что примерно 21% из первых 500 рекомендованных видео, показанных совершенно новому аккаунту YouTube, были идентифицированы как AI-шлак, а еще 33% попали в более широкую категорию «brainrot» — контент с низким содержанием и повторяющийся.
Проблема особенно сильно затрагивает молодую аудиторию. Расследование *New York Times* выявило тысячи видеороликов, нацеленных на детей, которые позиционировались как образовательные, но были созданы в первую очередь для удержания внимания с минимальными усилиями и ценностью. Эксперты назвали это реальной проблемой для развития юных зрителей.
YouTube в настоящее время не запрещает создателям использовать AI-инструменты, и нет общего требования раскрывать AI-генерируемый контент. Риск для создателей заключается в потере монетизации, если их контент будет помечен как низкокачественный, но правоприменение в лучшем случае было непоследовательным.
Краудсорсинг обнаружения с некоторыми большими оговорками
Новый запрос для зрителей добавляет третий уровень поверх существующих систем обнаружения YouTube, по сути, превращая свою огромную аудиторию в неформальную силу модерации. При более чем 2 миллиардах зарегистрированных пользователей, посещающих платформу ежемесячно, это огромный объем потенциальной обратной связи.
Однако вот в чем дело: YouTube не объяснил, как эти данные будут фактически использоваться. Компания не уточнила, какой вес будут иметь оценки зрителей, будут ли они запускать автоматические действия против помеченного контента или как система будет обрабатывать ложные срабатывания, когда легитимный контент, созданный человеком, будет ошибочно помечен.
Опасность
По крайней мере, один пользователь в X выразил обеспокоенность тем, что сбор этой обратной связи в масштабе может служить обучающими данными для AI-видеомоделей, потенциально помогая будущему AI-генерируемому контенту выглядеть более убедительным и трудным для обнаружения.
Это не маргинальная точка зрения. Если Google будет использовать данные, помеченные пользователями как «шлак», в своих моделях генерации видео *Veo*, конечным результатом может стать AI, специально обученный избегать паттернов, которые люди помечают как низкокачественные. Независимо от того, является ли это намерением или нет, YouTube не прокомментировал это.
Что это значит для создателей и зрителей
Для создателей ставки стали более очевидными. Если настроения зрителей напрямую влияют на то, как контент ранжируется или монетизируется, даже легитимные создатели, использующие AI-инструменты в своем рабочем процессе, могут оказаться на неправильной стороне негативной оценки.
Для зрителей это действительно интересный сдвиг в работе модерации платформы. Вместо того чтобы полагаться только на алгоритмы, YouTube делает ставку на то, что люди, которые фактически смотрят, лучше чувствуют, что кажется пустым и сгенерированным машиной.
Сработает ли эта ставка, полностью зависит от того, как YouTube будет использовать собранные данные, что на данный момент остается открытым вопросом. Обязательно ознакомьтесь с дополнительной информацией:




