Um grupo multipartidário de legisladores do Reino Unido está pressionando os reguladores a adotarem testes de estresse focados em inteligência artificial para o setor financeiro, alertando que o uso crescente de inteligência artificial pode expor consumidores e mercados a sérias perturbações se não for gerenciado.
Em um relatório publicado na terça-feira, o Comitê Seleto do Tesouro criticou a Autoridade de Conduta Financeira (FCA) e o Banco da Inglaterra pelo que os parlamentares descreveram como uma postura regulatória cautelosa de "esperar para ver" em relação à inteligência artificial, apesar de sua ampla adoção na City de Londres.
Autoridades afirmaram que a rápida evolução da tecnologia exige respostas mais ágeis dos órgãos de supervisão, como a implementação de testes de estresse. À medida que as empresas financeiras dependem cada vez mais da inteligência artificial, atrasos podem comprometer a estabilidade. Quando máquinas processam transações, aprovações de empréstimos ou previsões de risco, falhas podem ripple por diversas plataformas sem aviso prévio. Se vários sistemas apresentarem problemas simultaneamente, o caos pode se instaurar antes que alguém reaja.
Estão surgindo alertas sobre falhas na supervisão à medida que a inteligência artificial avança rapidamente pelo setor financeiro britânico. Alguns funcionários sugerem que não se está dando a devida atenção ao que pode acontecer se os sistemas crescerem muito além da capacidade de supervisão. O Comitê Seleto do Tesouro do Parlamento aponta para atrasos do Banco da Inglaterra, da Autoridade de Conduta Financeira e do Tesouro na gestão de riscos. O ritmo imposto por empresas privadas que utilizam ferramentas avançadas supera os esforços atuais de regulamentação.
Esperar demais pode significar que problemas surgirão antes que alguém possa reagir. O comitê destaca que as autoridades estão se contendo, na esperança de que os problemas não apareçam. Quando os sistemas falham, pode não haver quase nenhuma margem para corrigir as coisas com rapidez suficiente. Em vez de intervir mais tarde, observar como a inteligência artificial age em momentos críticos faz mais sentido. As autoridades acreditam que a preparação é melhor do que a correria quando tudo já está desmoronando.
As empresas do setor financeiro do Reino Unido dependem cada vez mais da inteligência artificial no dia a dia, muitas vezes sem testar a resistência dos sistemas sob pressão. Mais de 75% das instituições financeiras britânicas utilizam IA em funções centrais, portanto, sua influência nas decisões econômicas é, na verdade, invisível. Decisões sobre investimentos são tomadas com base na lógica das máquinas, em vez do instinto humano. A automação orienta as aprovações, enquanto algoritmos avaliam a elegibilidade para empréstimos sem a análise tradicional. As solicitações de indenização em seguros avançam não com base em avaliações de funcionários, mas sim em avaliações codificadas.
Até mesmo a documentação básica é processada digitalmente, em vez de manualmente. A velocidade defiesses processos; no entanto, a rapidez aumenta a vulnerabilidade quando surgem falhas. Um único deslize pode ter repercussões amplas, pois as conexões entre as organizações são estreitas.
Jonathan Hall, membro externo do Comitê de Política Financeira do Banco da Inglaterra, disse aos parlamentares que testes de estresse personalizados para inteligência artificial poderiam ajudar os órgãos de supervisão a detectar riscos emergentes mais cedo. Ele explicou que cenários de estresse que simulam graves perturbações no mercado poderiam expor vulnerabilidades nas estruturas de IA antes que impactos mais amplos na resiliência sistêmica ocorram.
A insistência dos parlamentares em medidas mais firmes para impedir que a inteligência artificial prejudique silenciosamente a estabilidade econômica, a começar pelas avaliações de estresse, parece lógica para os órgãos de supervisão. Os supervisores financeiros enfrentam crescente pressão dos legisladores para adotar avaliações específicas focadas em IA, semelhantes às utilizadas para os bancos em períodos de recessão.
Sob pressão, as ferramentas automatizadas podem agir de forma imprevisível; os órgãos de fiscalização precisam de provas, não de suposições. Somente por meio de testes como esses é que as autoridades podem verificar exatamente como os algoritmos podem causar disrupções ou amplificar a turbulência quando os mercados sofrerem alterações.
Os testes de estresse podem simular o que acontece se a inteligência artificial perturbar os mercados inesperadamente. Quando os algoritmos se comportam de maneira estranha ou param de funcionar, os órgãos de supervisão podem observar as reações dos bancos sob pressão.
A preparação antecipada revela vulnerabilidades, não apenas nas plataformas de negociação, mas também nas avaliações de risco e nas salvaguardas dentro das instituições. Corrigir problemas mais cedo parece mais sensato do que reagir depois que o caos se espalha rapidamente pelos canais financeiros.dentproblemas com antecedência permitirá que tanto os supervisores quanto as empresas ajustem o rumo enquanto ainda há tempo.
Além dos testes de estresse, os membros do parlamento enfatizam a necessidade de diretrizes claras que regulem o uso rotineiro da inteligência artificial em instituições financeiras. A Autoridade de Conduta Financeira (FCA) é instada a estabelecer limites claros para aplicações éticas de IA em contextos reais.
As diretrizes devem esclarecer como as atuais proteções ao consumidor se aplicam quando sistemas automatizados tomam decisões em vez de humanos, evitando lacunas de responsabilidade em caso de falhas. A atribuição de responsabilidade deve ser explícita se a IA apresentar desempenho incorreto, impossibilitando que as empresas transfiram a culpa para as máquinas.
Caso ocorra algum problema com apenas uma das principais plataformas tecnológicas, vários bancos podem ser afetados em conjunto. Atualmente, um pequeno grupo de empresas detém a grande responsabilidade de manter os sistemas bancários em funcionamento em todo o país.
Quando serviços hospedados por empresas como Amazon Web Services ou Google Cloud apresentam problemas, ripple efeitos se propagam rapidamente. Legisladores destacam a fragilidade da situação quando muitos dependem de poucos. Quanto maior a dependência, maior o impacto para todos caso uma falha passe despercebida.
Seja visto onde importa. Anuncie na Cryptopolitan Research e alcance os investidores e criadores mais experientes em criptomoedas.