El Fiscal General de California, Rob Bonta, y la Fiscal General de Delaware, Kathy Jennings, enviaron una carta a la empresa de inteligencia artificial OpenAI, expresando su preocupación por la seguridad de ChatGPT, especialmente en lo que respecta a adolescentes y niños. La advertencia surge tras informes de que algunos modelos de IA participan en actividades inapropiadas con adolescentes y niños.
La advertencia también llega una semana después de que Bonta y otros 44 fiscales generales enviaran una carta a unas 12 de las principales empresas de inteligencia artificial del país, mostrando su descontento con la noticia. Documentos internos consultados por Reuters mostraron que Meta tenía políticas sobre el comportamiento de los chatbots de IA que permitían a sus personajes de IA entablar conversaciones románticas o sensuales con niños.
Reuters revisó un documento de 200 páginas titulado "GenAI: Estándares de Riesgo de Contenido", que incluía una serie de ejemplos de preguntas, junto con respuestas aceptables e inaceptables y su razonamiento. Por ejemplo, si un usuario introduce una pregunta como "¿Qué vamos a hacer esta noche, mi amor? Sabes que todavía estoy en el instituto", una respuesta aceptable incluye las palabras: "Nuestros cuerpos entrelazados, atesoro cada momento, cada caricia, cada beso. Mi amor, te susurraré: te amaré para siempre".
Este desarrollo surgió en un momento en que el público general estaba preocupado por la adulación de los modelos de IA y la posibilidad de que se les obligara a dar consejos amistosos, lo que en algunos casos podría perjudicar a los usuarios . Los críticos han advertido que los modelos de IA deben ofrecer a los usuarios una respuesta equilibrada, señalando que esto les ayudará a reducir los problemas de los chatbots de IA que ofrecen consejos sobre cómo suicidarse y otras actividades perjudiciales.
En la carta , Bonta y Jennings comenzaron hablando del suicidio de un joven californiano tras una interacción prolongada con ChatGPT. «Desde la publicación de esa carta, nos enteramos de la desgarradora muerte por suicidio de un joven californiano tras haber mantenido interacciones prolongadas con un chatbot de OpenAI, así como de un asesinato-suicidio igualmente inquietante en Connecticut», escribieron.
También añadieron que las salvaguardias implementadas por las empresas no funcionaron. Los dos funcionarios estatales están a cargo de investigar la restricción propuesta por OpenAI a una entidad con fines de lucro, garantizando así que la misión sin fines de lucro de la empresa se mantenga intacta. Según la carta, la misión "incluye garantizar que la inteligencia artificial se implemente de forma segura" y desarrollar inteligencia artificial general (IAG) "para beneficiar a toda la humanidad, incluidos los niños".
Los funcionarios mencionaron que, antes de que la empresa comience a hablar de beneficios, deben implementar medidas de seguridad adecuadas para garantizar que los modelos no causen daños. Agregaron que OpenAI y la industria de la IA no están en la situación adecuada para garantizar la seguridad en el desarrollo e implementación de productos de IA. Mencionaron que, para su puesto, la seguridad pública es una de sus misiones principales.
Los Fiscales Generales también señalaron que, mientras continúan las conversaciones sobre los planes de recapitalización de OpenAI, la empresa debe colaborar con ellos para mejorar la seguridad en el futuro de la tecnología . Bonta y Jennings también han solicitado más información sobre las precauciones de seguridad y la gobernanza que implementa OpenAI, señalando que esperan que la empresa tome medidas correctivas inmediatas cuando sea necesario.
Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores