YouTube के पास AI-जनरेटेड कचरे के खिलाफ अपनी जंग में एक नया हथियार है, और वह हथियार आप हैं।
लगभग 17 मार्च से, YouTube मोबाइल ऐप पर users को वीडियो रेट करते समय एक नया pop-up prompt दिखाई देने लगा। सवाल? "क्या यह AI slop जैसा लगता है?" या "यह वीडियो कितना low-quality AI जैसा लगता है?" Responses "Not at all" से लेकर "Extremely" तक हैं, जिससे viewers को सीधे तौर पर उस content को flag करने का मौका मिलता है जिसे वे machine-generated और low effort मानते हैं।
The Scale of the Problem YouTube Is Trying to Solve
यह YouTube का बेवजह घबराना नहीं है। यह platform काफी समय से AI-generated content से भरा पड़ा है, और इसके मौजूदा automated और human review systems तालमेल नहीं बिठा पाए हैं। एक study में पाया गया कि एक बिल्कुल नए YouTube account को दिखाए गए पहले 500 recommended videos में से लगभग 21% को AI slop के रूप में पहचाना गया, और अन्य 33% low-substance, repetitive content की व्यापक "brainrot" category में आते हैं।
यह समस्या युवा audiences के लिए विशेष रूप से गंभीर है। New York Times की एक जांच में बच्चों को लक्षित करने वाले हजारों वीडियो मिले, जो educational होने का दावा करते थे लेकिन minimal actual effort या value के साथ attention बनाए रखने के लिए मुख्य रूप से बनाए गए थे। Experts ने इसे young viewers के development के लिए एक वास्तविक चिंता के रूप में flagged किया।
YouTube वर्तमान में creators को AI tools का उपयोग करने से नहीं रोकता है, और AI-generated content को disclose करने की कोई blanket requirement नहीं है। Creators के लिए जोखिम यह है कि यदि उनका content low quality के रूप में flagged हो जाता है तो वे monetization खो सकते हैं, लेकिन enforcement best case scenario में भी inconsistent रही है।
Crowdsourcing Detection, With Some Big Caveats
नया viewer prompt YouTube के मौजूदा detection systems के ऊपर एक तीसरा layer जोड़ता है, जो प्रभावी रूप से इसके विशाल audience को एक informal moderation force में बदल देता है। हर महीने platform पर 2 बिलियन से अधिक logged-in users के साथ, यह potential feedback की एक enormous amount है।
हालांकि, बात यह है: YouTube ने यह नहीं बताया है कि इस data का वास्तव में उपयोग कैसे किया जाएगा। कंपनी ने यह स्पष्ट नहीं किया है कि viewer ratings का कितना weight होगा, क्या वे flagged content के खिलाफ automatic action trigger करेंगे, या system false positives को कैसे handle करेगा जहां legitimate human-made content को mislabeled किया जाता है।
danger
X पर कम से कम एक user ने यह चिंता जताई है कि इस feedback को scale पर collect करने से AI video models के लिए training data के रूप में काम किया जा सकता है, जिससे भविष्य में AI-generated content अधिक convincing और detect करने में कठिन बन सकता है।
यह कोई fringe take नहीं है। यदि Google viewer-labeled "slop" data को अपने Veo video generation models में फीड करता है, तो अंतिम परिणाम AI हो सकता है जो विशेष रूप से उन patterns से बचने के लिए प्रशिक्षित होता है जिन्हें humans low quality के रूप में flag करते हैं। चाहे वह इरादा हो या न हो, YouTube ने इसे संबोधित नहीं किया है।
What This Means for Creators and Viewers
Creators के लिए, दांव अब और अधिक visible हो गए हैं। यदि viewer sentiment सीधे तौर पर content को कैसे रैंक या monetized किया जाता है, इसे प्रभावित करता है, तो legitimate creators भी जो अपने workflow के हिस्से के रूप में AI tools का उपयोग करते हैं, वे negative rating के गलत end पर खुद को पा सकते हैं।
Viewers के लिए, यह platform moderation के काम करने के तरीके में एक genuinely interesting shift है। केवल algorithms पर भरोसा करने के बजाय, YouTube इस बात पर दांव लगा रहा है कि जो लोग वास्तव में देख रहे हैं, उनके पास यह महसूस करने की बेहतर सहज भावना है कि क्या खोखला और machine-generated लगता है।
क्या वह दांव चुकाता है, यह पूरी तरह से इस बात पर निर्भर करता है कि YouTube एकत्र किए गए data का उपयोग कैसे करता है, जो अभी एक खुला प्रश्न बना हुआ है। और भी बहुत कुछ देखना सुनिश्चित करें:




