Australia asks Roblox, Minecraft to ...

Australia exige a Roblox, Minecraft, Fortnite y Steam explicaciones sobre seguridad infantil

La oficina eSafety de Australia exige a Roblox, Microsoft, Epic y Valve explicaciones sobre seguridad infantil y riesgos de radicalización en sus plataformas.

Eliza Crichton-Stuart

Eliza Crichton-Stuart

Actualizado

Australia asks Roblox, Minecraft to ...

"Las plataformas de videojuegos se encuentran entre los espacios en línea más utilizados por los niños australianos, funcionando no solo como lugares para jugar, sino también como lugares para socializar y comunicarse", dijo eSafety Commissioner Julie Inman Grant en una declaración publicada. Esa cita resume exactamente por qué el gobierno de Australia acaba de poner en aviso a cuatro de los nombres más importantes de los videojuegos.

La Oficina Australiana de eSafety, una agencia gubernamental independiente establecida en 2015, ha emitido avisos de transparencia legalmente ejecutables a Roblox, Microsoft (Minecraft), Epic Games (Fortnite) y Valve (Steam). Los avisos exigen formalmente que cada empresa explique, con detalles específicos, qué sistemas tienen implementados para prevenir el grooming infantil y la propagación de contenido extremista violento en sus plataformas.

Lo que realmente encontró la Oficina de eSafety

Las preocupaciones no son vagas. Inman Grant citó ejemplos documentados en las cuatro plataformas, incluidos juegos inspirados en el Estado Islámico y recreaciones de tiroteos masivos que aparecen en Roblox, grupos de extrema derecha recreando imaginería fascista en Minecraft, partidas de Fortnite construidas alrededor de campos de concentración de la Segunda Guerra Mundial y recreaciones del motín del Capitolio de los Estados Unidos del 6 de enero de 2021. Steam, mientras tanto, fue señalado como "supuestamente un centro para varias comunidades de extrema derecha", una afirmación que concuerda con el escrutinio previo que la plataforma ha enfrentado por albergar grupos que amplifican contenido nazi y de odio.

La propia investigación de la Oficina de eSafety encontró que alrededor de 9 de cada 10 niños de entre 8 y 17 años en Australia habían jugado videojuegos en línea. Esa es una audiencia enorme y, según Inman Grant, los adultos depredadores lo saben.

La cadena de grooming que comienza en el videojuego

Aquí está la cuestión que hace que las plataformas de videojuegos sean particularmente preocupantes en este contexto: los videojuegos en sí mismos no son siempre donde ocurre el daño. Inman Grant señaló específicamente un patrón en el que los delincuentes hacen contacto inicial con los niños dentro de los entornos de los videojuegos, y luego los mueven a servicios de mensajería privada para continuar el grooming lejos de cualquier moderación de la plataforma.

Ese enfoque de dos pasos dificulta la detección. El filtro de chat de un videojuego podría detectar señales de alerta obvias, pero una vez que una conversación se traslada a un servidor privado de Discord o a una aplicación de mensajería directa, la plataforma original no tiene visibilidad. La demanda de transparencia de la Oficina de eSafety tiene como objetivo, en parte, comprender si las empresas están rastreando esta migración, y mucho menos intentando interrumpirla.

Roblox responde, otros permanecen en silencio

De las cuatro empresas nombradas, solo Roblox había proporcionado una respuesta en el momento de la publicación. La compañía dijo que "da la bienvenida al compromiso con eSafety" y describió varias medidas existentes: políticas estrictas contra el contenido que promueve organizaciones terroristas o extremistas, revisión basada en IA de todas las imágenes, texto y artículos de avatar antes de publicarlos, y cooperación activa con las fuerzas del orden y grupos de la sociedad civil.

Roblox también señaló una actualización anunciada recientemente, confirmando que pronto se introducirán cuentas basadas en la edad para usuarios menores de 16 años. Estas cuentas vincularán el acceso al contenido, la configuración de comunicación y los controles parentales directamente a la edad verificada del usuario. La compañía reconoció los límites de cualquier sistema, diciendo que "ningún sistema es perfecto", pero se comprometió a una colaboración continua con eSafety.

Microsoft, Epic Games y Valve no habían comentado públicamente en el momento en que se publicó esta noticia.

Lo que esto significa más allá de Australia

Australia se ha convertido en uno de los entornos regulatorios más agresivos para las plataformas en línea dirigidas a niños. El mandato ampliado de la Oficina de eSafety y su voluntad de emitir avisos obligatorios con sanciones financieras significativas señalan que los días de la autorregulación como suficiente se están reduciendo, al menos en esta jurisdicción.

Lo que la mayoría de los jugadores no se dan cuenta es que estas plataformas ya tienen sistemas de moderación implementados. La verdadera pregunta que hace la Oficina de eSafety no es si existen salvaguardias, sino si están funcionando a la escala requerida y si las empresas pueden demostrarlo. Los avisos de transparencia significan que estas empresas tendrán que responder a esa pregunta con detalles específicos, no con comunicados de prensa.

Las respuestas de Microsoft, Epic y Valve, cuando lleguen, valdrá la pena observarlas de cerca. Para la cobertura de noticias de videojuegos más reciente en toda la industria, manténgase atento a cómo se desarrolla esta presión regulatoria. El enfoque de Australia tiene un historial de influir en las conversaciones políticas en otros mercados, y si estos informes de transparencia revelan brechas significativas, las consecuencias podrían extenderse mucho más allá de las fronteras de un solo país. Querrá explorar las últimas reseñas y cobertura a medida que esta historia se desarrolla.

Recursos de Roblox

Consulte las tarjetas de regalo de Roblox en Amazon aquí.

Aprenda sobre otras experiencias populares de Roblox:

Anuncios

actualizado

26 de abril, 2026

publicado

26 de abril, 2026

Noticias Relacionadas

Noticias destacadas