Tres preguntas para Anne-Cécile Krieg, subdirectora del departamento encargada de la gestión de riesgos de modelos. La publicación, el pasado mes de julio, del libro blanco “Operationalizing the Risk Management of Artificial Intelligence Systems” muestra, si aún fuera necesario, en qué medida el tema de la Inteligencia Artificial (IA) constituye un acelerador de la competitividad y, al mismo tiempo, tiempo, un acelerador de riesgos para las instituciones financieras.
Entonces, ¿cómo abordamos este desafío? El punto con Guerra Ana-Cécilesubdirector del departamento encargado de la gestión de riesgos de modelos, quien habló este 26 de noviembre en la conferencia de la ACPR sobre estos mismos temas.
Anne-Cécile, ¿cuáles son los principales beneficios en términos de competitividad que la IA ofrece a los actores del sector financiero?
¡Creo que los beneficios de la IA en nuestro universo ya no están en duda! Procesos como la revisión de documentos y la clasificación de datos se aceleran enormemente gracias a la inteligencia artificial. También es una tecnología que utilizamos y que ha demostrado su eficacia, especialmente en el filtrado de cumplimiento. Los grandes proyectos emblemáticos también han aportado beneficios a nuestros clientes y al mismo tiempo han fortalecido nuestra gestión de riesgos. Pienso, en particular, en la revisión del marco para los descubiertos autorizados para clientes individuales o en el proyecto MOSAIC (More Security With Artificial Intelligence), que permite automatizar los procesos de detección del fraude en los medios de pago, con un análisis de los flujos. y la activación de alertas ante la identificación de eventos anormales o sospechosos.
Y como corolario, ¿cuáles constituyen los principales riesgos?
La inteligencia artificial genera dos tipos principales de riesgos, que son dos caras de la misma moneda: el riesgo de privarse de la IA por miedo y el riesgo de no regular suficientemente su uso.
Este marco debe tener en cuenta, en particular, cuestiones técnicas amplificadas por enfoques más sofisticados (por ejemplo, sesgos codificados) o nuevos en el contexto de la IA (como la ciberseguridad). También implica un análisis de riesgos multidisciplinario (TI, modelo, riesgos operacionales).
¿Cómo se organiza un grupo como el nuestro para integrar la IA con el riesgo controlado?
En comparación con otras industrias, tenemos la suerte de contar ya con un marco que podemos aprovechar; esto se basa en expectativas regulatorias, por ejemplo en términos de modelado, datos o control. Lo estamos enriqueciendo para abordar los desafíos específicos que plantea la IA, en particular sobre la base de un enfoque colectivo emprendido con nuestros pares para identificar las mejores prácticas. Esta fructífera colaboración dio lugar a la redacción de un libro blanco sobre el tema, en el que participaron el BNPP, La Banque Postale y la Société Générale. Este documento revisa todos los riesgos identificados y ofrece una especie de “caja de herramientas” para cada uno de ellos.
La formación interna es también una cuestión clave, que requiere una multiplicación de canales para implicar a todos los estratos jerárquicos, la oferta de formación generalista y experta. Como sabemos, el aprendizaje y el conocimiento funcionan como salvaguardas.
Compartir mejores prácticas, retroalimentación y capacitación: estas son sin duda las dimensiones empíricas que garantizarán un despliegue razonado de los innegables beneficios de la IA.
Obtenga más información: el documento técnico dedicado a la generación de IA (julio de 2024)