La senadora Cynthia Lummis introdujo la Ley responsable de innovación y experiencia segura (Rise) para proteger a los desarrolladores de IA de la responsabilidad civil.
Según Lummis, el proyecto de ley, si se aprobó, tendría profesionales que usan herramientas de IA legalmente obligadas a realizar la debida diligencia y validar los resultados de la tecnología.
En un puesto de jueves x, el senador republicano comentó:
"Hoy, introduje la Ley de Aumento de 2025: legislación para proteger la innovación, empoderar a los profesionales y traer transparencia real a los poderosos sistemas de IA".
~ Senadora Cynthia Lummis
En una serie de publicaciones X, Lummis argumentó que la inteligencia artificial está progresando rápidamente y ahora se utiliza en múltiples campos, incluida la medicina, la ley y las finanzas. Sin embargo, los desarrolladores aún carecen de claridad sobre quién sigue siendo responsable cuando se utilizan estas herramientas de IA.
En su opinión, las leyes de responsabilidad actual ponen a los desarrolladores en riesgo, incluso cuando los profesionales con licencia usan las herramientas de manera responsable y dentro de su experiencia. Sin embargo, Lummis afirmó que su proyecto de ley cambiaría eso y protegería a los desarrolladores de IA que cumplan con los estándares de transparencia y documentación.
En un comunicado de prensa, Lummis aclaró que la Ley de Rise no ofrece "inmunidad general" para la IA, más bien, necesitará que los desarrolladores revelen especificaciones del modelo, lo que permite a los profesionales tomar decisiones informadas sobre las herramientas que usan. Eso significa que los profesionales con licencia son en última instancia responsables de los asesoramiento y las decisiones que toman.
Si se aprueba el proyecto de ley, los desarrolladores deben revelar cómo se entrenó y probó IA Por lo tanto, si un profesional con licencia utiliza una herramienta de IA con una comprensión clara de sus capacidades y surge un problema, el desarrollador estaría protegido de la demanda civil, proporcionó que cumplieron con sus obligaciones y actuarían de manera responsable.
El senador republicano sostuvo que los desarrolladores deben ser transparentes y que los profesionales emiten juicios sólidos, y si ambas partes cumplen con sus obligaciones, la innovación no debe ser castigada cuando ocurran errores.
La Cámara de Representantes aprobó recientemente el proyecto de ley de impuestos y gastos , incluida una moratoria de 10 años sobre los estados que hacen cumplir sus leyes de inteligencia artificial. El proyecto de ley aún se está considerando en el Senado, pero si los legisladores lo aprueban, los estados de EE. UU. No pueden implementar sus regulaciones de IA individuales.
Antes de que se aprobara el proyecto de ley en la Cámara, el representante David Joyce de Ohio había presionado por la ley, argumentando que había habido múltiples proyectos de ley de IA que varían en defi, requisitos y mecanismos de ejecución introducidos desde enero, lo que despertó la incertidumbre. Sin embargo, esperaba que pudiera allanar el camino para que un marco nacional de IA proporcione más claridad para la industria.
Él comentó: "Esta ley es un excelente ejemplo de apuntar a un daño específico con una ley limitada para llenar un vacío que ha sidodenten la ley existente".
Sin embargo, algunos demócratas se opusieron a la moratoria, diciendo que sería un sorteo para los gigantes tecnológicos. La representante Lori Trahan, por ejemplo, afirmó que si bien un mosaico de diferentes leyes estatales puede ser caótica, la moratoria aún no es una gran política, ya que impediría que los estados tomen acciones rápidas cuando sea necesario.
El 4 de junio, el presidente de la Cámara de Representantes, Mike Johnson, defendió la moratoria cuando la representante Marjorie Taylor Greene amenazó con votar en contra del paquete debido a la inclusión de la disposición.
Greene creía que la moratoria infringiría los derechos estatales, y agregó que ella desconocía su inclusión en el proyecto de ley. Su resistencia podría poner fácilmente el pasaje final del proyecto de ley desde que aprobó la Cámara por solo un voto adicional.
Johnson argumentó que le gusta el proyecto de ley en su estado actual y que tener 50 estados diferentes que regulan la IA tendría serias implicaciones de seguridad nacional.
Tus noticias de criptografía merecen atención: Key Difference Wire te pone en más de 250 sitios superiores