A senadora Cynthia Lummis introduziu a Lei de Inovação Responsável e Especialização Segura (Rise) para proteger os desenvolvedores de IA da responsabilidade civil.
Segundo Lummis, o projeto, se aprovado, teria profissionais usando ferramentas de IA legalmente obrigadas a executar a devida diligência e validar as saídas da tecnologia.
Em um post de quinta -feira x, o senador republicano comentou:
"Hoje, introduzi a Lei Rise de 2025 - legislação para proteger a inovação, capacitar profissionais e trazer transparência real aos poderosos sistemas de IA".
~ Senadora Cynthia Lummis
Em uma série de X Posts, Lummis argumentou que a inteligência artificial está progredindo rapidamente e agora é utilizada em vários campos, incluindo medicina, direito e finanças. No entanto, os desenvolvedores ainda não têm clareza sobre quem permanece responsável quando essas ferramentas de IA são usadas.
Na sua opinião, as leis atuais de responsabilidade colocam os desenvolvedores em risco, mesmo quando os profissionais licenciados usam as ferramentas com responsabilidade e dentro de seus conhecimentos. No entanto, Lummis afirmou que seu projeto de lei mudaria isso e protegeria os desenvolvedores de IA que atendem aos padrões de transparência e documentação.
Em um comunicado à imprensa, Lummis esclareceu que o Rise Act não oferece "imunidade geral" para a IA; em vez disso, precisará de desenvolvedores para revelar as especificações do modelo, permitindo que os profissionais façam escolhas informadas sobre as ferramentas que usam. Isso significa que os profissionais licenciados são os responsáveis pelos conselhos e decisões que tomam.
Se a lei for aprovada, os desenvolvedores devem divulgar como a IA foi treinada e testada, seus pontos fortes e limitações e as instruções e restrições que orientam seu comportamento. Portanto, se um profissional licenciado use uma ferramenta de IA com uma compreensão clara de suas capacidades e surgir uma questão, o desenvolvedor seria protegido do processo civil - forneceu a obtenção de suas obrigações e agiu com responsabilidade.
O senador republicano sustentou que os desenvolvedores precisam ser transparentes e os profissionais fazem julgamentos sólidos e, se ambas as partes cumprirem suas obrigações, a inovação não deve ser punida quando os erros acontecerem.
A Câmara dos Deputados aprovou recentemente o projeto de lei fiscal e gasto , incluindo uma moratória de 10 anos em estados aplicando suas leis de inteligência artificial. O projeto ainda está em consideração no Senado, mas se os legisladores o aprovarem, os Estados dos EUA não poderão implementar seus regulamentos individuais de IA.
Antes de aprovar o projeto de lei, o representante David Joyce, de Ohio, havia pressionado a lei, argumentando que houve várias contas de IA variando em defi, requisitos e mecanismos de execução introduzidos desde janeiro, despertando incerteza. No entanto, ele esperava que isso pudesse abrir caminho para uma estrutura nacional de IA para fornecer mais clareza ao setor.
Ele comentou: "Esta lei é um excelente exemplo de alvo um dano específico com uma lei estreitamente adaptada para preencher uma lacuna que tenha sidodentna lei existente".
No entanto, alguns democratas se opuseram à moratória, dizendo que seria uma oferta para os gigantes da tecnologia. A representante Lori Trahan, por exemplo, afirmou que, embora uma colcha de retalhos de diferentes leis estaduais possa ser caótica, a moratória ainda não é uma ótima política, pois impediria os estados de tomar ações rápidas quando necessário.
Em 4 de junho, o presidente da Câmara, Mike Johnson, defendeu a moratória quando a representante Marjorie Taylor Greene ameaçou votar contra o pacote por causa da inclusão da provisão.
Greene acreditava que a moratória infringiria os direitos do estado, acrescentando que não tinha conhecimento de sua inclusão no projeto. Sua resistência poderia facilmente comprometer a passagem final do projeto de lei desde que passou na Câmara por apenas um voto extra.
Johnson argumentou que gosta do projeto de lei em seu estado atual e que ter 50 estados diferentes que regulam IA teriam sérias implicações de segurança nacional.
Suas notícias criptográficas merecem atenção - o fio de diferença -chave coloca você em mais de 250 sites superiores