OpenAI SEGURIDAD DE OPHAULS
Aunque la compañía ha negado la afirmación de que sus acciones son en respuesta a su competencia, Operai ha reforzado sus procedimientos de seguridad después de un incidente dent enero que involucra a la startup china Deepseek .
OpenAi ha aumentado el aliado de Dramaticen sus medidas de seguridad interna en los últimos meses para salvaguardar su propiedad intelectual del espionaje extranjero, particularmente de China. La compañía comenzó a implementar protocolos más estrictos el año pasado, pero estos esfuerzos obtuvieron una renovada urgencia después de un lanzamiento de Deep Speek de enero.
Operai sospecha que la compañía rival utilizó "destilación" para desarrollar y lanzar un producto competidor. La destilación es una técnica que implica capacitar un nuevo modelo para imitar el comportamiento de otro.
"El episodio llevó a OpenAi que fuera mucho más riguroso", dijo una fuente cercana al equipo de seguridad. Desde entonces, la compañía ha estado expandiendo agresivamente sus operaciones de ciberseguridad y su control sobre el acceso a investigaciones confidenciales, datos modelo e infraestructura.
Hasta ahora, Deepseek no ha respondido a las acusaciones.
Eldent de Deepseek también provocó una represión interna generalizada en Operai. Las nuevas políticas que se conocen internamente como "carpa de información" ahora se utilizan para determinar cómo se acceden y comparten los datos confidenciales.
Solo un pequeño círculo de miembros del personal puede acceder a proyectos de investigación de primer nivel, y aquellos involucrados en ciertos desarrollos deben confirmar que otros con los que interactúan también son parte de la misma "carpa".
Este enfoque cauteloso se implementó durante el desarrollo del modelo de próxima generación de Openai, referido internamente como "Strawberry". El personal recibió instrucciones de no discutir el proyecto en los espacios de oficina abierta a menos que estuvieran seguros de que sus colegas estaban oficialmente autorizados para formar parte de él.
Este secreto ha causado cierta fricción interna, con un empleado que lo describe como "muy apretado", afirmando: "Ovieron todo o nada".
A nivel del sistema, OpenAi ahora almacena gran parte de su tecnología patentada en entornos aislados fuera de línea. Esta infraestructura de aire separado separa sistemas críticos de redes más amplias e Internet público, reduciendo el riesgo de infiltración remota.
La seguridad física también se ha actualizado, con acceso biométrico de huellas digitales requerido para ciertas habitaciones en la oficina de San Francisco de la compañía.
Para evitar aún más la fuga de los parámetros clave que rigen cómo responden los modelos OpenAI a las indicaciones del usuario, la compañía ha hecho cumplir una estricta "Política de salida de salida". Esto significa que los sistemas están bloqueados para conectarse a Internet a menos que se apruebe específicamente.
Existe una competencia implacable entre Estados Unidos y China sobre el liderazgo en las tecnologías emergentes, particularmente la inteligencia artificial.
Washington ha impuesto una serie de controles de exportación diseñados para evitar que Beijing adquiera semiconductores avanzados y tecnologías relacionadas. Al mismo tiempo, las agencias de inteligencia estadounidenses han advertido que los actores extranjeros han aumentado sus esfuerzos para robar datos confidenciales de las empresas de tecnología estadounidenses.
La escalada en amenazas de espionaje ha empujado a varias compañías importantes de Silicon Valley a adoptar una proyección más estricta de las nuevas contrataciones, y OpenAi no es una excepción. Las empresas de IA y tecnología comenzaron a evaluar los riesgos de amenaza interna más en serio desde 2023.
En octubre del año pasado, Operai contrató a Dane Stuckey como su nuevo director de seguridad de la información. Stuckey, quien anteriormente desempeñó el mismo papel en Palantir , aporta un enfoque centrado en la seguridad nacional a la estrategia de defensa de la organización.
Stuckey trabaja en estrecha colaboración con Matt Knight,dent de productos de seguridad de OpenAi, que actualmente encabeza los esfuerzos para utilizar los propios modelos de idiomas de la compañía como herramientas para defenderse de las amenazas cibernéticas.
Además, Operai agregó al general retirado del ejército de los EE. UU. Paul Nakasone a su junta el año pasado. Nakasone fue el ex jefe del Comando Cibernético de los Estados Unidos y la Agencia de Seguridad Nacional (NSA). Aporta una comprensión de alto nivel de las amenazas de ciberseguridad y las estrategias de defensa al equipo ejecutivo de OpenAI.
A pesar de la naturaleza seria de estos cambios, OpenAi ha declarado que la revisión de seguridad no está en respuesta directa a ningúndentúnico.
Un portavoz de la compañía le dijo a The Financial Times que las actualizaciones son parte de las inversiones de la compañía en privacidad y seguridad, ya que tiene como objetivo liderar la industria.
El mayor enfoque en el espionaje extranjero, particularmente de China, ha planteado preocupaciones sobre la reputación de las corriente subterráneas xenófobas en la industria. Varios expertos y observadores han expresado su preocupación de que las políticas de seguridad radicales puedan alienar involuntariamente a los empleados de ascendencia asiática o conducir a un escrutinio indebido basado en la nacionalidad en lugar de los indicadores de amenazas reales.
Cable de diferencia de clave : la herramienta secreta que los proyectos de cifrado utilizan para obtener cobertura de medios garantizada