Uma nova ação judicial apresentada no Tribunal Distrital dos Estados Unidos para o Distrito Leste do Kentucky acusa as empresas Roblox e Discord de não protegerem uma adolescente de 13 anos, identificada como Audree Heine, que morreu por suicídio. O processo foi movido por sua mãe, Jaimee Seitz, e alega que ambas as plataformas falharam em adotar medidas adequadas de segurança para menores de idade.
De acordo com a denúncia, apresentada na semana passada, Heine teria sido levada ao suicídio após interagir com uma comunidade online que glorificava a violência e imitava atiradores em massa. O documento descreve esse grupo, conhecido como True Crime Community (TCC), como “uma comunidade que idolatra atiradores em massa, incluindo os responsáveis pelo massacre de Columbine, e que incentiva a violência contra si mesmos e contra os outros”.
O processo afirma que o Roblox funcionava como “um local central” para conteúdos relacionados à TCC, com jogos que recriavam tiroteios em massa, enquanto o Discord era usado para compartilhar “instruções sobre como construir simuladores de ataques e criar avatares inspirados em atiradores notórios”.
“Por meio de suas declarações falsas sobre segurança, os réus apresentam seus aplicativos como espaços apropriados para crianças brincarem”, diz o texto. “Na realidade, e como os réus bem sabem, o design de seus aplicativos torna as crianças alvos fáceis para comportamentos predatórios”.
Negligência
A denúncia alega que as plataformas não implementaram mecanismos de verificação de idade e recursos eficazes de proteção infantil, permitindo que adultos com más intenções se infiltrassem e aliciassem menores. “Usuários maliciosos, geralmente adultos, usam as plataformas dos réus para explorar crianças vulneráveis. Esses processos predatórios envolvem manipulação e pressão — as mesmas que Audree sofreu no Roblox e no Discord”, afirma o documento.
O caso é representado pelo escritório de advocacia Anapol Weiss, com sede na Filadélfia (Pensilvânia), que já processou a Roblox em outras ocasiões. A advogada Alexandra Walsh, sócia do escritório, afirmou em comunicado: “Não se trata de uma pequena falha de segurança, mas de uma empresa que fornece aos pedófilos ferramentas poderosas para atacar crianças inocentes e desavisadas. O trauma resultante é horrível — do aliciamento à exploração e ao abuso sexual. Neste caso, uma criança perdeu a vida. Isto precisa parar”.
Segundo o escritório, este é o 12º processo movido contra plataformas de jogos online por suposta proteção inadequada de menores, o que demonstraria um “padrão de descaso corporativo com a segurança infantil”.
Resposta das empresas
O Discord já foi repetidamente criticado por falhas na proteção de menores. O Centro Nacional de Exploração Sexual (NCOSE) incluiu o aplicativo por quatro anos consecutivos em sua lista “Dirty Dozen”, que identifica plataformas associadas a risco de abuso e exploração, segundo o The Christian Post.
Em nota divulgada em março, o NCOSE declarou: “Embora o Discord afirme ter feito alterações para evitar a exploração, essas políticas são meramente formais. Adultos e menores ainda têm as mesmas configurações padrão para conteúdo explícito, o que significa que os menores continuam tendo acesso total a pornografia e outros materiais sexualmente explícitos em servidores e mensagens privadas”.
Em contrapartida, a Roblox Corporation anunciou em novembro de 2023 novas medidas de segurança infantil, como controle parental remoto, definição de limites diários de tempo de uso, restrições de comunicação para menores de 13 anos e filtros adicionais para conteúdos gráficos. “Levamos a segurança extremamente a sério. Nosso objetivo é tornar o Roblox a plataforma online mais segura e civilizada possível, porque é o certo para as crianças, seus pais, nossos investidores e nossa empresa”, afirmou a companhia em comunicado.