La batalla entre empresas de inteligencia artificial ha trascendido el mundo tecnológico y se ha trasladado directamente a la política estadounidense. Anthropic anunció el jueves que invertirá 20 millones de dólares en las campañas electorales de mitad de mandato.
El dinero se destina a Public First Action, un grupo recién formado que busca que los estados conserven su poder para establecer las normas de IA. Esto coloca a Anthropic en una situación de conflicto con la operación política de OpenAI y la Casa Blanca de Trump, que busca que Washington asuma el control de las políticas de IA a nivel nacional.
“Las empresas que desarrollan IA tienen la responsabilidad de ayudar a garantizar que la tecnología sirva al bien público, no solo a sus propios intereses”, afirmó en el anuncio del jueves.
El grupo apoya a candidatos que se oponen a los intentos de despojar a los estados de su autoridad sobre la tecnología de IA. Una de las primeras beneficiadas fue Marsha Blackburn, candidata republicana a gobernadora de Tennessee, quien luchó contra proyectos de ley federales que habrían impedido que las legislaturas estatales aprobaran sus propias leyes de IA.
Public First Action se enfrenta a una gran desventaja frente a Leading the Future, el grupo opositor respaldado por eldent de OpenAI, Greg Brockman, y el inversor tecnológico Marc Andreessen. Esta operación ha recaudado 125 millones de dólares desde su lanzamiento en agosto de 2025. La firma de capital riesgo de Andreessen, A16Z, posee una participación en OpenAI, lo que hace que la lucha por la financiación sea aún más personal entre los desarrolladores de IA rivales.
Eldent Trump firmó una orden en diciembre que amenaza directamente las leyes estatales que Anthropic quiere proteger. La directiva exige a las agencias federales que creen un marco nacional de IA con normas mínimas y que luego lo utilicen para anular regulaciones estatales más estrictas.
La orden de Trump va más allá al crear un grupo de trabajo en el Departamento de Justicia, diseñado específicamente para impugnar las leyes estatales de IA en los tribunales. Los estados con normas que Trump considere demasiado estrictas podrían perder financiación federal. Su asesor en IA, David Sacks, ya señaló la ley de Colorado como "probablemente la más excesiva" del texto.
Varios estados tienen regulaciones que entrarán en vigor o se tramitarán en sus legislaturas en 2026. Colorado pospuso su Ley de IA hasta el 30 de junio de 2026 tras recibir presiones, pero la ley seguirá exigiendo a las empresas que desarrollen sistemas de IA de "alto riesgo" que eviten la discriminación en sus algoritmos. California aprobó siete leyes de IA en 2025, y su Ley de Transparencia en la IA Fronteriza entró en vigor el 1 de enero de 2026. Texas prohibió el uso de la IA para ciertos fines mediante su Ley de Gobernanza Responsable de la IA.
Cryptopolitan informó previamente que Anthropic recaudó 2 mil millones de dólares el año pasado, con una valoración de 60 mil millones, seguida de una inversión masiva de 15 mil millones de dólares por parte de Microsoft y Nvidia, que elevó su valor a unos 350 mil millones. Estos inversores ahora tienen miles de millones en juego en la regulación de la IA.
La publicación del blog de la compañía del jueves criticó veladamente a OpenAI sin nombrarlos directamente, advirtiendo que “vastos recursos han fluido hacia organizaciones políticas que se oponen” a los esfuerzos por hacer que la IA sea más segura.
Si los candidatos respaldados por Acción Pública Primero obtienen suficientes escaños, podrían bloquear proyectos de ley de prelación federal en el Congreso. Eso mantendría vigente el enfoque estado por estado, al menos temporalmente.
La rivalidad entre Anthropic y OpenAI va mucho más allá de los niveles de financiación. Fundada por los hermanos Dario y Daniela Amodei tras abandonar OpenAI por preocupaciones de seguridad, Anthropic ha construido toda sudenten torno a la reducción de riesgos de la tecnología de IA. OpenAI y sus patrocinadores prefieren normas más flexibles que permitan una mayor innovación.
Esa brecha filosófica ahora se refleja en las contribuciones de campaña y el cabildeo. OpenAI solicitó a Trump que bloqueara las normas estatales de IA a cambio de que el gobierno accediera a sus modelos a principios de este año. La empresa argumentó que la fragmentación de las leyes estatales perjudicaría el liderazgo estadounidense en IA.
Pero las probabilidades parecen difíciles. La ventaja de financiación de seis a uno de Leading the Future le otorga a OpenAI más dinero para invertir en publicidad, personal y operaciones terrestres. La orden ejecutiva de Trump también otorga a las agencias federales herramientas para impugnar las leyes estatales de inmediato, sin esperar al Congreso.
La disputa revela una división más profunda en Silicon Valley sobre el grado de supervisión que debe recibir la IA. Empresas como Anthropic, fundada por exempleados de OpenAI que se marcharon por desacuerdos sobre seguridad, generalmente favorecen normastronpara evitar que la IA cause daños. OpenAI y sus defensores prefieren una regulación más flexible que agilice la innovación.
Los votantes de los estados que aprobaron leyes de IA podrán elegir la visión que prefieran al emitir su voto este otoño. Su decisión podría determinar si el desarrollo de la IA se basa en un conjunto heterogéneo de normas estatales o en un sistema federal uniforme con menos restricciones.
Hazte notar donde importa. Publicita en Cryptopolitan Research y llega a los inversores y creadores de criptomonedas más inteligentes.