Según informes vinculados a Fortune, documentos internos filtrados de Anthropic han revelado la existencia de una nueva generación de modelos de IA con nombre en clave "Claude Mythos"
Sin embargo, lo más relevante es que, según se informa, los nuevos modelos ya se encuentran en fase de pruebas a pesar de que se cree que plantean "riesgos de ciberseguridad sindent"
La revista Fortune publicó recientemente un informe con documentos filtrados de la empresa de inteligencia artificial Anthropic. Los documentos revelan detalles sobre una nueva generación de modelos de IA en desarrollo, supuestamente llamada "Claude Mythos".
La filtración se produjo debido a un error humano en la configuración del sistema de gestión de contenidos (CMS) de Anthropic. Roy Paz, de LayerX Security, y Alexandre Pauwels, de la Universidad de Cambridge, explicaron que Anthropic dejó cerca de 3000 archivos sin publicar, incluyendo imágenes, PDF, archivos de audio y borradores de entradas de blog, en un repositorio de datos público y consultable.
El material era accesible en línea antes de que Fortune notificara a Anthropic, tras lo cual la empresa eliminó el acceso público.
Los documentos consultados por Fortune afirman que Claude Mythos ya se encuentra en fase de pruebas. Más importante aún, indican que Anthropic considera que este nuevo modelo “plantea riesgos de ciberseguridad sindent”
Anthropic afirmó en un borrador de blog que el sistema "actualmente está muy por delante de cualquier otro modelo de IA en capacidades cibernéticas" y advirtió que "presagia una próxima ola de modelos que pueden explotar vulnerabilidades de maneras que superan con creces los esfuerzos de los defensores"
Debido a los riesgos potenciales, Anthropic planeó una estrategia de lanzamiento cautelosa que priorizaría el acceso anticipado para las organizaciones de defensa de la ciberseguridad, lo que daría a los defensores una ventaja inicial para fortalecer las bases de código contra las vulnerabilidades impulsadas por la IA.
Anthropic ya informó anteriormente que un grupo patrocinado por el Estado chino utilizó el código Claude para infiltrarse en unas 30 organizaciones, incluidas empresas tecnológicas, instituciones financieras y agencias gubernamentales, por lo que la preocupación no es infundada.
Los documentos filtrados también revelaron detalles de una cumbre de directores ejecutivos a la que solo se podía asistir por invitación, planeada en una mansión del siglo XVIII en la campiña inglesa, donde el director ejecutivo de Anthropic, Dario Amodei, iba a recibir a líderes empresariales europeos para debatir sobre la adopción de la IA y mostrar las capacidades aún no publicadas del modelo Claude.
Una vez que la noticia sobre X se dio a conocer y atrajo una atención considerable, Elon Musk, propietario de X y director de xAI, un competidor directo de Anthropic, no perdió la oportunidad de comentar la noticia.
Musk comentó : "Es realmente preocupante", y rápidamente obtuvo decenas de miles de visualizaciones y miles de "me gusta".
Musk tiene la costumbre de comentar las noticias negativas sobre sus competidores con los que discrepa. Anthropic fue fundada por exempleados de OpenAI, y Musk ha criticado abiertamente tanto a OpenAI como el enfoque de la industria de la IA en general respecto a la seguridad y la comercialización.
Mientras tanto, la propia empresa de IA de Musk, xAI , lanzó recientemente un nuevo plan de suscripción de pago llamado "SuperGrok Lite". La suscripción cuesta 10 dólares y se han establecido límites para los usuarios gratuitos de Grok con el fin de incentivarlos a adquirirla o cualquiera de los otros tres planes de suscripción que ofrece Grok.
Entre ellas se incluyen SuperGrok, que cuesta 30 dólares al mes, SuperGrok Heavy, que cuesta 300 dólares al mes, y Grok Business, que también cuesta 30 dólares al mes.
Hay un punto medio entre dejar el dinero en el banco y arriesgarse en criptomonedas. Empieza con este video gratuito sobre finanzas descentralizadas .