"Le piattaforme di gaming sono tra gli spazi online più utilizzati dai bambini australiani, fungendo non solo da luoghi di gioco, ma anche da luoghi di socializzazione e comunicazione," ha dichiarato la eSafety Commissioner Julie Inman Grant in una dichiarazione pubblicata. Questa citazione riassume esattamente il motivo per cui il governo australiano ha appena messo in guardia quattro dei nomi più importanti nel mondo del gaming.
L'Australian eSafety office, un'agenzia governativa indipendente istituita nel 2015, ha emesso avvisi di trasparenza legalmente vincolanti a Roblox, Microsoft (Minecraft), Epic Games (Fortnite) e Valve (Steam). Gli avvisi richiedono formalmente a ciascuna azienda di spiegare, in dettaglio specifico, quali sistemi hanno in atto per prevenire il grooming di minori e la diffusione di contenuti estremisti violenti sulle loro piattaforme.
Cosa ha effettivamente riscontrato l'eSafety office
Le preoccupazioni non sono vaghe. Inman Grant ha citato esempi documentati su tutte e quattro le piattaforme, inclusi giochi ispirati allo Stato Islamico e ricreazioni di sparatorie di massa apparse su Roblox, gruppi di estrema destra che ricreano immagini fasciste in Minecraft, giochi di Fortnite costruiti attorno ai campi di concentramento della Seconda Guerra Mondiale e ricreazioni della rivolta del 6 gennaio 2021 al Campidoglio degli Stati Uniti. Steam, nel frattempo, è stato segnalato come "presumibilmente un hub per un certo numero di comunità di estrema destra", un'affermazione che si allinea con precedenti scrutinio che la piattaforma ha affrontato per aver ospitato gruppi che amplificano contenuti nazisti e di odio.
La ricerca dell'eSafety office ha rilevato che circa 9 bambini su 10 di età compresa tra 8 e 17 anni in Australia avevano giocato a giochi online. Si tratta di un pubblico enorme e, secondo Inman Grant, gli adulti predatori lo sanno.
La conformità a un avviso di segnalazione di trasparenza è obbligatoria secondo la legge australiana. Le aziende che non rispondono rischiano sanzioni fino a 825.000 AUD al giorno (circa $520,000 USD al giorno).
La pipeline di grooming che inizia in-game
Ecco la cosa che rende le piattaforme di gaming particolarmente preoccupanti in questo contesto: i giochi stessi non sono sempre dove avviene il danno. Inman Grant ha specificamente evidenziato uno schema in cui gli offensori stabiliscono un contatto iniziale con i bambini all'interno degli ambienti di gioco, per poi spostarli su servizi di messaggistica privata per continuare il grooming lontano da qualsiasi moderazione della piattaforma.
Questo approccio a due fasi rende più difficile il rilevamento. Il filtro di chat di un gioco potrebbe cogliere segnali d'allarme evidenti, ma una volta che una conversazione si sposta su un server Discord privato o su un'app di messaggistica diretta, la piattaforma originale non ha visibilità. La richiesta di trasparenza dell'eSafety office è in parte volta a comprendere se le aziende stiano persino monitorando questa migrazione, figuriamoci se stiano cercando di interromperla.
Roblox risponde, gli altri restano in silenzio
Delle quattro aziende nominate, solo Roblox aveva fornito una risposta al momento della segnalazione. L'azienda ha dichiarato di "accogliere con favore l'impegno con eSafety" e ha delineato diverse misure esistenti: politiche rigorose contro contenuti che promuovono organizzazioni terroristiche o estremiste, revisione basata sull'IA di tutte le immagini, testi e avatar prima della pubblicazione, e cooperazione attiva con le forze dell'ordine e i gruppi della società civile.
Roblox ha anche fatto riferimento a un aggiornamento recentemente annunciato, confermando che presto verranno introdotti account basati sull'età per gli utenti di età inferiore ai 16 anni. Questi account legheranno l'accesso ai contenuti, le impostazioni di comunicazione e i controlli parentali direttamente all'età verificata di un utente. L'azienda ha riconosciuto i limiti di qualsiasi sistema, affermando che "nessun sistema è perfetto", ma si è impegnata a una continua collaborazione con eSafety.
Microsoft, Epic Games e Valve non avevano commentato pubblicamente al momento della pubblicazione di questa notizia.
Cosa significa questo oltre l'Australia
L'Australia è diventata uno degli ambienti normativi più aggressivi per le piattaforme online che si rivolgono ai bambini. Il mandato ampliato dell'eSafety office e la volontà di emettere avvisi obbligatori con significative sanzioni finanziarie segnalano che i giorni in cui l'autoregolamentazione era sufficiente si stanno riducendo, almeno in questa giurisdizione.
Ciò che la maggior parte dei giocatori non coglie è che queste piattaforme hanno già sistemi di moderazione in atto. La vera domanda che l'eSafety office sta ponendo non è se esistano delle salvaguardie, ma se stiano funzionando alla scala richiesta e se le aziende possano effettivamente dimostrarlo. Gli avvisi di trasparenza significano che queste aziende dovranno rispondere a questa domanda con dettagli specifici, non con comunicati stampa.
Le risposte di Microsoft, Epic e Valve, quando arriveranno, saranno degne di essere seguite attentamente. Per la copertura delle ultime notizie sul gaming in tutto il settore, tieni d'occhio come si sviluppa questa pressione normativa. L'approccio dell'Australia ha una storia di influenza sulle conversazioni politiche in altri mercati e, se questi rapporti di trasparenza riveleranno lacune significative, le conseguenze potrebbero estendersi ben oltre i confini di un singolo paese. Vorrai sfogliare le ultime recensioni e coperture man mano che questa storia si sviluppa.
Risorse Roblox
Dai un'occhiata alle carte regalo Roblox su Amazon qui.
Scopri altre esperienze popolari di Roblox:







