Un grupo multipartidista de legisladores del Reino Unido está presionando a los reguladores para que adopten pruebas de estrés centradas en la IA para el sector financiero, advirtiendo que el creciente uso de la inteligencia artificial podría exponer a los consumidores y los mercados a graves perturbaciones si no se gestiona.
En un informe publicado el martes, el Comité Selecto del Tesoro criticó a la Autoridad de Conducta Financiera (FCA) y al Banco de Inglaterra por lo que los parlamentarios describieron como una postura regulatoria cautelosa de “esperar y ver” hacia la inteligencia artificial, a pesar de su adopción generalizada en la ciudad de Londres.
Los funcionarios han declarado que la rápida evolución de la tecnología exige respuestas más rápidas por parte de los organismos de supervisión, como la introducción de pruebas de estrés. A medida que las entidades financieras recurren cada vez más a la inteligencia artificial, los retrasos podrían afectar la estabilidad. Cuando las máquinas gestionan operaciones, aprobaciones de préstamos o previsiones de riesgos, las fallas pueden ripple sin previo aviso a múltiples plataformas. Si varios sistemas fallan al mismo tiempo, puede estallar una crisis antes de que nadie reaccione.
Están surgiendo advertencias sobre las deficiencias en la supervisión a medida que la inteligencia artificial avanza rápidamente en el sector financiero británico. Algunos funcionarios sugieren que no se presta suficiente atención a lo que podría suceder si los sistemas se desarrollan demasiado antes de la supervisión. El Comité Selecto del Tesoro del Parlamento señala los retrasos del Banco de Inglaterra, la Autoridad de Conducta Financiera y el Tesoro en la gestión de riesgos. El ritmo marcado por las empresas privadas que utilizan herramientas avanzadas supera los esfuerzos actuales de elaboración de normas.
Esperar demasiado podría significar que surjan problemas antes de que alguien pueda responder. El comité señala que los funcionarios se están conteniendo, esperando que no surjan problemas. Cuando los sistemas fallan, puede que casi no haya margen para solucionar los problemas con la suficiente rapidez. En lugar de intervenir más tarde, es más lógico observar cómo actúa la inteligencia artificial en momentos difíciles. Los funcionarios creen que es mejor prepararse que apresurarse cuando todo ya se está desmoronando.
Las empresas del sector financiero del Reino Unido recurren cada vez más a la inteligencia artificial, a menudo sin realizar pruebas de estrés sobre el rendimiento de los sistemas bajo presión. Más del 75 % de las instituciones financieras británicas utilizan IA en sus funciones centrales, por lo que su influencia en las decisiones económicas es, en todo caso, invisible. Las decisiones sobre inversiones se toman mediante la lógica de las máquinas, en lugar del instinto humano. La automatización guía las aprobaciones, mientras que los algoritmos evalúan la elegibilidad de los préstamos sin necesidad de una revisión tradicional. Las reclamaciones de seguros no se tramitan según las evaluaciones de los empleados, sino mediante evaluaciones codificadas.
Incluso el papeleo básico se gestiona digitalmente en lugar de manualmente. La velocidad defiestos procesos; sin embargo, la rapidez aumenta la exposición cuando surgen fallas. Un solo paso en falso puede tener una gran repercusión debido a la estrecha conexión entre las organizaciones.
Jonathan Hall, miembro externo del Comité de Política Financiera del Banco de Inglaterra, explicó a los legisladores que las pruebas de estrés personalizadas para la inteligencia artificial podrían ayudar a los organismos supervisores a detectar riesgos emergentes con mayor antelación. Explicó que los escenarios de estrés que simulan graves perturbaciones del mercado podrían exponer vulnerabilidades en los marcos de IA antes de que se produzcan impactos más amplios en la resiliencia sistémica.
La insistencia de los parlamentarios en medidas más firmes para evitar que la inteligencia artificial socave silenciosamente la estabilidad económica, comenzando con evaluaciones de estrés, parece lógica para los organismos supervisores. Los supervisores financieros se enfrentan a una creciente presión de los legisladores para adoptar evaluaciones personalizadas centradas en la IA, similares a las utilizadas por los bancos en tiempos de crisis.
Bajo presión, las herramientas automatizadas pueden actuar de forma impredecible; los organismos de control necesitan pruebas, no suposiciones. Solo mediante estas pruebas las autoridades pueden ver con exactitud cómo los algoritmos podrían provocar disrupciones o amplificar la turbulencia una vez que los mercados fluctúen.
Las pruebas de estrés podrían imitar lo que ocurre si la inteligencia artificial perturba los mercados inesperadamente. Cuando los algoritmos se comportan de forma extraña o dejan de funcionar, los organismos de supervisión pueden observar las reacciones de los bancos bajo presión.
Prepararse con antelación revela vulnerabilidades, no solo en las plataformas de negociación, sino también en las evaluaciones de riesgos y las salvaguardas de las instituciones. Solucionar los problemas con prontitud parece más sensato que reaccionar cuando el caos se propaga rápidamente por los canales financieros.dentlos problemas con antelación permitirá tanto a los supervisores como a las empresas ajustar el rumbo mientras aún hay tiempo.
Además de las pruebas de estrés, los parlamentarios enfatizan la necesidad de directrices claras que rijan el uso rutinario de la inteligencia artificial en las instituciones financieras. Se insta a la Autoridad de Conducta Financiera a establecer límites claros para las aplicaciones éticas de la IA en situaciones reales.
Las directrices deben aclarar cómo se aplican las protecciones actuales al consumidor cuando los sistemas automatizados toman decisiones en lugar de los humanos, evitando así lagunas en la rendición de cuentas en caso de fallos. La asignación de responsabilidades debe ser explícita si la IA funciona incorrectamente, imposibilitando que las empresas atribuyan la culpa a las máquinas.
Si algo falla con una sola plataforma tecnológica principal, muchos bancos podrían verse afectados. Un puñado de empresas ahora tienen la gran responsabilidad de mantener los sistemas bancarios en funcionamiento en todo el país.
Cuando servicios alojados por nombres como Amazon Web Services o Google Cloud tienen problemas, ripple se notan rápidamente. Los legisladores señalan la fragilidad de la situación cuando tantos dependen de tan pocos. Cuanto mayor es la dependencia, más duramente afecta a todos si se produce un fallo técnico.
Hazte notar donde importa. Publicita en Cryptopolitan Research y llega a los inversores y creadores de criptomonedas más inteligentes.