Um novo documento judicial revelou que o tráfico sexual era difícil de denunciar e amplamente tolerado nas plataformas Meta. De acordo com o documento, que foi divulgado na sexta-feira, o processo faz parte de uma ação judicial mais ampla movida contra quatro empresas de redes sociais.
Na petição inicial, a chefe de segurança e bem-estar do Instagram, Vaishnavi Jayakumar, testemunhou que, quando ingressou na Meta em 2020, soube que a empresa tinha uma política de 17 advertências para contas que praticavam tráfico de pessoas para fins sexuais. Isso significava que os usuários podiam incorrer nessa infração 16 vezes, e a empresa só suspenderia a conta na 17ª ocorrência. "Em qualquer parâmetro do setor, [era] um limite de advertência muito, muito alto", acrescentou.
As alegações contra a Meta decorrem de um documento apresentado em um litígio multidistrital semdent. Mais de 1.800 demandantes, incluindo crianças, pais, distritos escolares e procuradores-gerais estaduais, uniram-se na ação judicial. O processo alega que as empresas controladoras do TikTok, Snapchat e YouTube "perseguiram implacavelmente uma estratégia de crescimento a qualquer custo, ignorando de forma imprudente o impacto de seus produtos na saúde mental e física das crianças".
De acordo com a petição inicial apresentada pelos demandantes no Distrito Norte da Califórnia, a Meta supostamente tinha conhecimento de graves danos em sua plataforma e adotou um padrão de engano para minimizar os riscos para usuários jovens. As plataformas alegam que documentos internos da empresa podem corroborar os depoimentos. Além disso, os demandantes afirmaram que a Meta sabia que milhões de adultos estavam contatando menores em suas plataformas .
Os autores da ação também alegaram que a Meta tinha conhecimento de que seus produtos agravavam os problemas de saúde mental em adolescentes e que conteúdo relacionado a distúrbios alimentares, suicídio e abuso sexual infantil era frequentemente detectado, mas raramente removido. O documento também observou que a empresa não divulgou esses danos ao público ou ao Congresso, e se recusou a implementar medidas de segurança para proteger os jovens usuários da exposição a esses conteúdos.
“A Meta criou produtos e plataformas de mídia social que, segundo ela, são viciantes para crianças, e sabe que esses vícios levam a uma série de problemas graves de saúde mental”, afirma Previn Warren, um dos advogados principais dos demandantes no caso. “Assim como no caso do tabaco, esta é uma situação em que existem produtos perigosos que foram comercializados para crianças”, acrescenta Warren. “Eles fizeram isso mesmo assim, porque mais uso significava mais lucros para a empresa.”
divulgados inicialmente pela TIME, baseiam-se em depoimentos sob juramento de executivos atuais e antigos da Meta, comunicações internas e materiais de pesquisa e apresentação da empresa obtidos durante o processo de descoberta de provas. Incluem diversas citações e especialistas, extraídos de milhares de páginas de depoimentos e documentos internos da empresa. A TIME não teve acesso aos depoimentos ou às pesquisas citados na ação na época, pois estavam sob sigilo.
No entanto, o documento ainda pinta um quadro negativo da pesquisa interna da empresa e das deliberações sobre questões que afetam suas plataformas desde pelo menos 2017. Os autores da ação judicial observaram que, desde 2017, a Meta vem atraindo usuários jovens, mesmo que sua pesquisa interna sugira que seus produtos de mídia social possam ser viciantes e perigosos para crianças. De acordo com o documento, funcionários da Meta propuseram maneiras de reduzir esses danos, mas frequentemente eram bloqueados pelos executivos.
Entretanto, nos anos que se seguiram à abertura do processo, a Meta implementou novos recursos de segurança projetados para solucionar alguns dos problemas descritos pelos autores da ação. No ano passado, a empresa lançou sua Conta para Adolescentes do Instagram, que define a conta do usuário como privada por padrão, desde que ele tenha entre 13 e 18 anos. Além disso, limita conteúdo sensível, desativa as notificações à noite e bloqueia comunicações de adultos não conectados.
Quer que seu projeto seja apresentado às mentes mais brilhantes do mundo das criptomoedas? Apresente-o em nosso próximo relatório do setor, onde dados encontram impacto.