Vitalik Buterin ha expresado su preocupación por el uso cada vez más controvertido del concepto teórico de "seguridad de la IA" por parte de empresas y gobiernos.
Buterin explicó en la plataforma de redes sociales X que las empresas líderes en el ámbito de la IA, como Anthropic, no pueden dictar qué medidas son adecuadas o no para la seguridad, ya que eso conduce a un sistema en el que las reglas las elaboran los más tron .
Vitalik Buterin recurrió recientemente a la plataforma de redes sociales X para compartir su preocupación por la apropiación por parte de grandes corporaciones e intereses nacionales.
Por ejemplo, Anthropic recibió recientemente elogios por negarse a permitir que el Departamento de Bienestar Social (DoW) u otras entidades gubernamentales utilizaran sus modelos Claude para vigilancia masiva o armamento totalmente autónomo.
Sin embargo, la empresa también canceló su compromiso de seguridad de pausa ante riesgos, que la obligaba a detener incondicionalmente toda la capacitación y el despliegue hasta que las medidas de seguridad se pusieran al día si alguna vez desarrollaba un modelo de IA cuyas capacidades superaran la capacidad de la empresa para demostrar que el modelo era seguro.
Vitalik señaló que las críticas previas de Anthropic a sus competidores por aprender de los resultados de Claude provocaron una fuerte reacción negativa por parte de los críticos, particularmente en China, quienes argumentaron que el propio Claude entrenó sus modelos con el vasto conocimiento público de Internet.
Anthropic afirma que su problema con los competidores de código abierto es que carecen de las medidas de seguridad necesarias y plantean riesgos, pero ¿por qué Anthropic tiene la potestad de decidir qué medidas de seguridad son adecuadas?
Buterin afirmó que las acciones de Anthropic sugieren un sistema donde "las reglas las elaboran lostron"
Expresó su temor de que si la seguridad de la IA se vuelve indistinguible de una mentalidad de "nuestra empresa/nuestro país merece gobernar el mundo", se creará un mundo más peligroso.
Argumenta que si las normas de seguridad eximen inevitablemente a las organizaciones de seguridad nacional, dichas normas se volverán frágiles. Esto cobra especial relevancia dado que noticias recientes confirman que los principales laboratorios de IA buscan cada vez más alianzas multimillonarias contracde defensa para proporcionar entornos de IA seguros para uso militar.
Hace años, Vitalik se convirtió en uno de los mayores donantes del Future of Life Institute (FLI). En 2021, los creadores de la criptomoneda Shiba Inu (SHIB) le obsequiaron una enorme cantidad de tokens. Cuando la burbuja de esta criptomoneda alcanzó su punto máximo, su valor contable superaba los mil millones de dólares. Vitalik se apresuró a donar los fondos antes de que los intereses disminuyeran y envió aproximadamente 500 millones de dólares en SHIB al FLI.
En aquel entonces, el FLI se centraba en riesgos como las amenazas biológicas y la guerra nuclear. Sin embargo, desde entonces, el FLI ha cambiado su enfoque hacia la acción política agresiva y el cabildeo, impulsando a menudo regulaciones que Vitalik considera preocupantes. En concreto, discrepa de su enfoque en integrar a los guardias en modelos de IA para que rechacen las amenazas.
Vitalik considera que estas restricciones son soluciones frágiles porque pueden sortearse fácilmente mediante el jailbreaking o ajustes precisos.
Más importante aún, teme que estas estrategias conduzcan a un escenario oscuro donde se prohíba la IA de código abierto para mantener un monopolio en manos de los "buenos".
Vitalik aboga por un sistema llamado aceleracionismo defensivo (d/acc). Esta filosofía sugiere que la mejor manera de lidiar con la tecnología peligrosa es desarrollar y liberar como código abierto los sistemas de protección.
Recientemente, destinó 40 millones de dólares a proyectos como hardware seguro, biodefensa y ciberseguridad para respaldar su ideología.
El hardware seguro hace que los chips informáticos sean imposibles de piratear, por lo que no pueden utilizarse para el espionaje masivo. La biodefensa implica el desarrollo de sistemas avanzados de filtración de aire y pruebas PCR pasivas para detectar y detener pandemias precozmente. Las inversiones en ciberseguridad mejorarán la verificabilidad del software, de modo que los ataques impulsados por IA no puedan paralizar fácilmente la infraestructura crítica.
No te limites a leer noticias sobre criptomonedas. Entiéndelas. Suscríbete a nuestro boletín. Es gratis .