"Plataformas de jogos estão entre os espaços online mais utilizados por crianças australianas, funcionando não apenas como locais para jogar, mas também como locais para socializar e se comunicar", disse eSafety Commissioner Julie Inman Grant em uma declaração publicada. Essa citação resume exatamente por que o governo da Austrália acabou de notificar quatro dos maiores nomes dos games.
O Australian eSafety office, uma agência governamental independente estabelecida em 2015, emitiu avisos de transparência legalmente executáveis para Roblox, Microsoft (Minecraft), Epic Games (Fortnite) e Valve (Steam). Os avisos exigem formalmente que cada empresa explique, em detalhes específicos, quais sistemas elas possuem para prevenir o grooming infantil e a disseminação de conteúdo extremista violento em suas plataformas.
## O que o eSafety office realmente encontrou
As preocupações não são vagas. Inman Grant citou exemplos documentados em todas as quatro plataformas, incluindo jogos inspirados no Estado Islâmico e recriações de tiroteios em massa aparecendo no Roblox, grupos de extrema-direita recriando imagens fascistas no Minecraft, jogos de Fortnite construídos em torno de campos de concentração da Segunda Guerra Mundial e recriações do motim no Capitólio dos EUA em 6 de janeiro de 2021. O Steam, enquanto isso, foi sinalizado como "supostamente um hub para várias comunidades de extrema-direita", uma alegação que acompanha o escrutínio anterior que a plataforma enfrentou por hospedar grupos que amplificam conteúdo nazista e de ódio.
A própria pesquisa do eSafety office descobriu que cerca de 9 em cada 10 crianças de 8 a 17 anos na Austrália jogaram online. Esse é um público enorme e, de acordo com Inman Grant, adultos predadores sabem disso.
## O pipeline de grooming que começa no jogo
Aqui está o que torna as plataformas de jogos especificamente preocupantes neste contexto: os jogos em si nem sempre são onde o dano acontece. Inman Grant destacou especificamente um padrão onde ofensores fazem contato inicial com crianças dentro dos ambientes de jogo, e então as movem para serviços de mensagens privadas para continuar o grooming longe de qualquer moderação da plataforma.
Essa abordagem de dois passos torna a detecção mais difícil. O filtro de chat de um jogo pode capturar sinais óbvios, mas uma vez que uma conversa muda para um servidor Discord privado ou um aplicativo de mensagens diretas, a plataforma original não tem visibilidade. A exigência de transparência do eSafety office visa, em parte, entender se as empresas estão sequer rastreando essa migração, quanto mais tentando interrompê-la.
## Roblox responde, outros ficam quietos
Das quatro empresas nomeadas, apenas o Roblox havia fornecido uma resposta no momento da reportagem. A empresa disse que "recebe o engajamento com o eSafety" e delineou várias medidas existentes: políticas rigorosas contra conteúdo que promove organizações terroristas ou extremistas, revisão baseada em IA de todas as imagens, textos e itens de avatar antes da publicação, e cooperação ativa com a aplicação da lei e grupos da sociedade civil.
O Roblox também apontou para uma atualização anunciada recentemente, confirmando que contas baseadas em idade para usuários menores de 16 anos serão introduzidas em breve. Essas contas vincularão o acesso ao conteúdo, configurações de comunicação e controles parentais diretamente à idade verificada do usuário. A empresa reconheceu os limites de qualquer sistema, dizendo que "nenhum sistema é perfeito", mas comprometeu-se com a colaboração contínua com o eSafety.
Microsoft, Epic Games e Valve não haviam comentado publicamente no momento em que esta história foi publicada.
## O que isso significa além da Austrália
A Austrália se tornou um dos ambientes regulatórios mais agressivos para plataformas online que visam crianças. O mandato expandido do eSafety office e a disposição de emitir avisos obrigatórios com penalidades financeiras significativas sinalizam que os dias de autorregulação suficiente estão diminuindo, pelo menos nesta jurisdição.
O que a maioria dos jogadores não percebe é que essas plataformas já possuem sistemas de moderação em vigor. A verdadeira questão que o eSafety office está fazendo não é se as salvaguardas existem, mas se elas estão funcionando na escala necessária e se as empresas podem realmente provar isso. Os avisos de transparência significam que essas empresas terão que responder a essa pergunta com detalhes, não com comunicados de imprensa.
As respostas da Microsoft, Epic e Valve, quando chegarem, valerão a pena acompanhar de perto. Para a cobertura mais recente de notícias de games em toda a indústria, fique de olho em como essa pressão regulatória se desenvolve. A abordagem da Austrália tem um histórico de influenciar conversas políticas em outros mercados e, se esses relatórios de transparência revelarem lacunas significativas, as consequências podem ir muito além das fronteiras de um único país. Você vai querer navegar pelas últimas análises e cobertura à medida que essa história se desenvolve.
## Recursos do Roblox
Confira os cartões-presente do Roblox na Amazon aqui.
Saiba mais sobre outras experiências populares do Roblox:
Perigo
O cumprimento de um aviso de relatório de transparência é obrigatório sob a lei australiana. Empresas que não responderem enfrentam multas de até AUD $825.000 por dia (aproximadamente $520,000 USD por dia).







