Meta Platforms planea utilizar la inteligencia artificial para evaluar la privacidad y los riesgos sociales. A lo largo de los años, la compañía ha empleado a los evaluadores humanos para analizar los riesgos asociados con los nuevos productos y características, pero las cosas cambian con esta nueva actualización.
Según conversaciones y documentos internos, Meta planea tener el 90% de todas sus evaluaciones de riesgos automatizadas. Esto significa que los aspectos con respecto a las actualizaciones críticas a los algoritmos de la compañía, las características de seguridad y los cambios en cómo se permite compartir el contenido en las plataformas de Meta serán aprobados principalmente por un sistema respaldado por inteligencia artificial. También significa que estos cambios ya no serían sujetos a ser revisados por el personal encargado de discutir cómo un cambio en la plataforma podría tener efectos imprevistos o ser mal utilizados.
Según las fuentes dentro de Meta, el desarrollo se ha visto como una victoria para los desarrolladores de productos, ya que les brinda suficiente tiempo para lanzar sus actualizaciones y características de sus aplicaciones. Sin embargo, todavía hay preocupaciones dentro de la compañía sobre lo complicada que es la situación, señalando que la compañía permitirá que AI haga determinaciones difíciles sobre las aplicaciones de Meta podría provocar daños en el mundo real. El sesgo ha sido compartido por los empleados anteriores y actuales.
"En la medida en que este proceso significa funcionalmente que se lanzarán más cosas más rápido, con un escrutinio y oposición menos rigurosos, significa que está creando riesgos más altos", dijo un ex meta ejecutivo que solicitó el anonimato por temor a las represalias de la compañía. "Es menos probable que se eviten las externalidades negativas de los cambios en el producto antes de que comiencen a causar problemas en el mundo".
En una declaración reciente, Meta mencionó que ha infundido miles de millones de dólares para apoyar la privacidad del usuario. La compañía también ha estado bajo la vigilancia de la Comisión Federal de Comercio desde 2012, y la agencia llegó a un acuerdo con la compañía sobre cómo maneja la información personal de sus usuarios. Como resultado, siempre ha habido una necesidad de revisiones de privacidad de los productos, según los empleados del antiguo y actual de Meta.
En su declaración, la compañía agregó que los cambios en la revisión del riesgo del producto ayudarán a optimizar la toma de decisiones, señalando que todavía emplea experiencia humana en temas novedosos y complejos. Meta también señaló que actualmente solo se están automatizando las decisiones de bajo riesgo, pero los documentos internos revisados por NPR muestran que Meta ha estado buscando automatizar las revisiones de los aspectos delicados, incluida la seguridad de la IA, el riesgo juvenil y otra categoría conocida como integridad, que es responsable de cosas como la información errónea y los contenidos violentos.
Según el sistema anterior, las actualizaciones de productos y características se enviaron por primera vez a evaluadores de riesgos antes de ser lanzadas al público. Sin embargo, según una diapositiva que muestra cómo funciona el nuevo proceso, los equipos de productos recibirán decisiones instantáneas después de completar un cuestionario sobre el proyecto. La decisión impulsada por la IA harádentvarias áreas y requisitos riesgosos que podrían abordarlos. Antes del lanzamiento de tales proyectos, el equipo de productos también verificará si se han cumplido los requisitos.
Lo que destaca el nuevo sistema es que los ingenieros que construyen meta productos necesitarán hacer su juicio sobre los riesgos. Según la diapositiva, en algunos casos, incluidos los nuevos riesgos o cuando un de producto necesita comentarios adicionales, los proyectos recibirán una revisión manual realizada por humanos.
Sin embargo, un ex director de innovación de Meta hasta 2022, Zvika Krieger ha mencionado que los gerentes de productos e ingenieros no son expertos en privacidad. "La mayoría de los gerentes de productos e ingenieros no son expertos en privacidad y ese no es el foco de su trabajo. No es en lo que se evalúan principalmente y no es lo que están incentivados para priorizar", dijo. También agregó que algunas de estas autoevaluaciones se han convertido en ejercicios que pierden algunos riesgos importantes.
Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores