Una nueva demanda judicial ha revelado que la trata de personas con fines de explotación sexual era difícil de denunciar y ampliamente tolerada en las plataformas de Meta. Según la demanda, que se hizo pública el viernes, esta forma parte de una demanda colectiva más amplia interpuesta contra cuatro empresas de redes sociales.
En el escrito de los demandantes, la responsable de seguridad y bienestar de Instagram, Vaishnavi Jayakumar, declaró que, al incorporarse a Meta en 2020, descubrió que la empresa tenía una política de 17 infracciones para las cuentas que se dedicaban a la trata de personas con fines de explotación sexual. Esto significaba que los usuarios podían cometer esta infracción 16 veces, y la empresa solo suspendía su cuenta en la decimoséptima ocasión. «Desde cualquier punto de la industria, [era] un umbral de infracciones muy, muy alto», añadió.
Las acusaciones contra Meta se derivan de un escrito presentado en un litigio multidistrital sindent. Más de 1800 demandantes, entre ellos niños, padres, distritos escolares y fiscales generales estatales, se han unido en la demanda. La demanda alega que las empresas matrices de TikTok, Snapchat y YouTube «persiguieron implacablemente una estrategia de crecimiento a cualquier precio, ignorando temerariamente el impacto de sus productos en la salud mental y física de los niños».
Según la demanda presentada por los demandantes en el Distrito Norte de California, se alega que Meta era consciente de los graves daños que se producían en su plataforma y que incurrió en un patrón de engaño para minimizar los riesgos para los usuarios jóvenes. Las plataformas afirman que documentos internos de la empresa corroboran los testimonios. Además, los demandantes alegan que Meta sabía que millones de adultos contactaban con menores en sus plataformas .
Los demandantes también alegaron que Meta era consciente de que sus productos aumentaban los problemas de salud mental en adolescentes, y que con frecuencia se detectaba contenido relacionado con trastornos alimentarios, suicidio y abuso sexual infantil, el cual rara vez se eliminaba. El escrito también señalaba que la empresa no informó de estos daños al público ni al Congreso, y que se negó a implementar medidas de seguridad para proteger a los jóvenes usuarios de la exposición a dicho contenido.
“Meta ha diseñado productos y plataformas de redes sociales a sabiendas de que son adictivos para los niños, y saben que esas adicciones conllevan una serie de graves problemas de salud mental”, afirma Previn Warren, uno de los abogados principales de los demandantes en el caso. “Al igual que con el tabaco, se trata de una situación en la que existen productos peligrosos que se comercializaron para niños”, añade Warren. “Aun así, lo hicieron, porque un mayor uso significaba mayores ganancias para la empresa”.
Los alegatos de los demandantes, publicados inicialmente por TIME, se basaban en declaraciones juradas de ejecutivos actuales y antiguos de Meta, comunicaciones internas y materiales de investigación y presentación de la empresa obtenidos durante el proceso de descubrimiento de pruebas. Incluyen numerosas citas y testimonios de expertos extraídos de miles de páginas de declaraciones y documentos internos de la empresa. TIME no pudo acceder a las declaraciones ni a la investigación citadas en el alegato en ese momento, ya que estaban selladas.
Sin embargo, el informe sigue ofreciendo una imagen negativa de la investigación interna y las deliberaciones de la empresa sobre los problemas que han afectado a sus plataformas desde al menos 2017. Los demandantes señalaron que, desde 2017, Meta ha estado atrayendo a usuarios jóvenes, a pesar de que su investigación interna sugiere que sus productos de redes sociales podrían ser adictivos y peligrosos para los menores. Según el informe, los empleados de Meta propusieron maneras de reducir estos daños, pero a menudo los ejecutivos las bloquearon.
Mientras tanto, en los años posteriores a la presentación de la demanda, Meta implementó nuevas medidas de seguridad diseñadas para abordar algunos de los problemas descritos por los demandantes. El año pasado, la compañía presentó su Cuenta para Adolescentes de Instagram, que configura la cuenta de un usuario como privada por defecto, siempre que tenga entre 13 y 18 años. Además, limita el contenido sensible, desactiva las notificaciones nocturnas y bloquea las comunicaciones de adultos no conectados.
Hazte notar donde importa. Publicita en Cryptopolitan Research y llega a los inversores y creadores de criptomonedas más inteligentes.