How to play Content Warning exclusively ...

YouTube: AI से बनी निम्न-गुणवत्ता वाली सामग्री को फ़्लैग करने का अनुरोध

YouTube अब यूज़र्स से "AI स्लोप" जैसी लगने वाली वीडियोज़ को फ़्लैग करने के लिए कह रहा है। यह प्लेटफ़ॉर्म पर AI-जनित निम्न-गुणवत्ता वाली सामग्री से निपटने का एक नया तरीका है।

Eliza Crichton-Stuart

Eliza Crichton-Stuart

अद्यतनित Mar 20, 2026

How to play Content Warning exclusively ...

YouTube के पास AI-जनरेटेड कचरे के खिलाफ अपनी जंग में एक नया हथियार है, और वह हथियार आप हैं।

लगभग 17 मार्च से, YouTube मोबाइल ऐप पर users को वीडियो रेट करते समय एक नया pop-up prompt दिखाई देने लगा। सवाल? "क्या यह AI slop जैसा लगता है?" या "यह वीडियो कितना low-quality AI जैसा लगता है?" Responses "Not at all" से लेकर "Extremely" तक हैं, जिससे viewers को सीधे तौर पर उस content को flag करने का मौका मिलता है जिसे वे machine-generated और low effort मानते हैं।

The Scale of the Problem YouTube Is Trying to Solve

यह YouTube का बेवजह घबराना नहीं है। यह platform काफी समय से AI-generated content से भरा पड़ा है, और इसके मौजूदा automated और human review systems तालमेल नहीं बिठा पाए हैं। एक study में पाया गया कि एक बिल्कुल नए YouTube account को दिखाए गए पहले 500 recommended videos में से लगभग 21% को AI slop के रूप में पहचाना गया, और अन्य 33% low-substance, repetitive content की व्यापक "brainrot" category में आते हैं।

यह समस्या युवा audiences के लिए विशेष रूप से गंभीर है। New York Times की एक जांच में बच्चों को लक्षित करने वाले हजारों वीडियो मिले, जो educational होने का दावा करते थे लेकिन minimal actual effort या value के साथ attention बनाए रखने के लिए मुख्य रूप से बनाए गए थे। Experts ने इसे young viewers के development के लिए एक वास्तविक चिंता के रूप में flagged किया।

YouTube वर्तमान में creators को AI tools का उपयोग करने से नहीं रोकता है, और AI-generated content को disclose करने की कोई blanket requirement नहीं है। Creators के लिए जोखिम यह है कि यदि उनका content low quality के रूप में flagged हो जाता है तो वे monetization खो सकते हैं, लेकिन enforcement best case scenario में भी inconsistent रही है।

Crowdsourcing Detection, With Some Big Caveats

नया viewer prompt YouTube के मौजूदा detection systems के ऊपर एक तीसरा layer जोड़ता है, जो प्रभावी रूप से इसके विशाल audience को एक informal moderation force में बदल देता है। हर महीने platform पर 2 बिलियन से अधिक logged-in users के साथ, यह potential feedback की एक enormous amount है।

हालांकि, बात यह है: YouTube ने यह नहीं बताया है कि इस data का वास्तव में उपयोग कैसे किया जाएगा। कंपनी ने यह स्पष्ट नहीं किया है कि viewer ratings का कितना weight होगा, क्या वे flagged content के खिलाफ automatic action trigger करेंगे, या system false positives को कैसे handle करेगा जहां legitimate human-made content को mislabeled किया जाता है।

यह कोई fringe take नहीं है। यदि Google viewer-labeled "slop" data को अपने Veo video generation models में फीड करता है, तो अंतिम परिणाम AI हो सकता है जो विशेष रूप से उन patterns से बचने के लिए प्रशिक्षित होता है जिन्हें humans low quality के रूप में flag करते हैं। चाहे वह इरादा हो या न हो, YouTube ने इसे संबोधित नहीं किया है।

What This Means for Creators and Viewers

Creators के लिए, दांव अब और अधिक visible हो गए हैं। यदि viewer sentiment सीधे तौर पर content को कैसे रैंक या monetized किया जाता है, इसे प्रभावित करता है, तो legitimate creators भी जो अपने workflow के हिस्से के रूप में AI tools का उपयोग करते हैं, वे negative rating के गलत end पर खुद को पा सकते हैं।

Viewers के लिए, यह platform moderation के काम करने के तरीके में एक genuinely interesting shift है। केवल algorithms पर भरोसा करने के बजाय, YouTube इस बात पर दांव लगा रहा है कि जो लोग वास्तव में देख रहे हैं, उनके पास यह महसूस करने की बेहतर सहज भावना है कि क्या खोखला और machine-generated लगता है।

क्या वह दांव चुकाता है, यह पूरी तरह से इस बात पर निर्भर करता है कि YouTube एकत्र किए गए data का उपयोग कैसे करता है, जो अभी एक खुला प्रश्न बना हुआ है। और भी बहुत कुछ देखना सुनिश्चित करें:

Games

Guides

Reviews

News

घोषणाएँ, रिपोर्ट्स

अद्यतनित

March 20th 2026

पोस्ट किया गया

March 20th 2026

संबंधित समाचार

सभी देखें