El Departamento del Tesoro de EE. UU. publica una guía completa sobre riesgos de IA para que las instituciones financieras mejoren su seguridad.
El Tesoro de los Estados Unidos ha lanzado una colección de documentos clave Diseñado a medida para la industria de servicios financieros de EE. UU. Estos describen un Enfoque estructurado para la gestión de riesgos de la IA tanto en operaciones como en políticas (véase el subtítulo 'Recursos y descargas' cerca de la parte inferior de la página enlazada). Lo fundamental para esto es el Marco de gestión de riesgos de IA para servicios financieros de CRI (FS AI RMF), acompañado de un detallado GuíaEste marco es el resultado de la colaboración entre más de 100 instituciones financieras, reguladores y expertos técnicos, con el objetivo de ayudar a las empresas a identificar, evaluar, gestionar y controlar los riesgos relacionados con la IA, al tiempo que se promueve una adopción responsable de la misma.
Gestión de riesgos de IA específica del sector es fundamental porque los marcos de gobernanza tradicionales no abordan completamente cuestiones como sesgo algorítmico, transparencia limitada en la toma de decisiones de la IA, vulnerabilidades de ciberseguridad, y interdependencias complejas entre sistemas y datos. En particular, los modelos de lenguaje grandes (LLM) generan inquietudes debido a su salida impredecible y dependiente del contexto.
Si bien las regulaciones existentes y los marcos generales de riesgo de IA, como el Marco de gestión de riesgos de IA del NIST Ofrecen una guía amplia, pero carecen del detalle granular necesario para las instituciones financieras con desafíos específicos del sector y expectativas regulatorias. El FS AI RMF amplía el NIST con controles prácticos y asesoramiento personalizado para su implementación.
Componentes principales del FS AI RMF
El marco integra la gobernanza de la IA con los procesos de gobernanza, riesgo y cumplimiento (GRC) existentes dentro de las instituciones financieras. Incluye:
- Cuestionario sobre la etapa de adopción de la IA: Evalúa el nivel de madurez actual de una organización en materia de inteligencia artificial.
- Matriz de riesgos y controles: Define las declaraciones de riesgo y los objetivos de control alineados con las etapas de adopción.
- Guía: Instrucciones detalladas para la aplicación del marco de trabajo.
- Guía de referencia sobre objetivos de control: Proporciona ejemplos de controles y pruebas para demostrar el cumplimiento.
El marco define 230 objetivos de control Agrupadas en cuatro funciones adaptadas del NIST: gobernar, mapa, medida, y administrarCada función contiene categorías y subcategorías que describen elementos eficaces para la gestión de riesgos en IA.
Evaluación de las etapas de madurez de la IA
El cuestionario de adopción ayuda a las empresas a identificar su estado de implementación de IA, que puede variar ampliamente:
- Etapa inicial: Escaso o nulo despliegue operativo de IA, principalmente en fase de estudio.
- Etapa mínima: Uso limitado de la IA en aplicaciones de bajo riesgo o aisladas.
- Etapa de evolución: Despliegue de sistemas de IA más complejos que afectan a datos sensibles o que implican servicios externos.
- Etapa integrada: La IA desempeña un papel fundamental en los procesos y decisiones empresariales clave.
Clasificar a las empresas de esta manera les permite centrar los controles en función de su nivel de madurez: las instituciones en fase inicial no necesitan controles completos de inmediato, pero a medida que se profundiza el uso de la IA, el marco añade más medidas de seguridad para abordar el aumento del riesgo.
Controles de riesgo y gobernanza
Los objetivos de control abarcan ámbitos tanto de gobernanza como operativos, tales como:
- Gestión de la calidad de los datos
- Vigilancia de la imparcialidad y los sesgos
- controles de ciberseguridad
- Transparencia de los procesos de decisión de la IA
- Resiliencia operativa
El Guía Ofrece controles de muestra y ejemplos probatorios para respaldar el cumplimiento, pero cada institución debe adaptar los controles a su contexto particular.
Además, el marco recomienda: planes específicos de respuesta ante incidentes de IA y mantener un repositorio centralizado de incidentes de IA para realizar un seguimiento de los fallos, facilitar su detección y mejorar la gobernanza de forma continua.
Principios para una IA confiable
El FS AI RMF adopta principios fundamentales que incluyen: validez, fiabilidad, seguridad, responsabilidad, transparencia, explicabilidad, protección de la privacidad y equidadEstas directrices guían la evaluación a lo largo del ciclo de vida de la IA para garantizar que los resultados sean fiables, que los sistemas sean resistentes a las ciberamenazas y que las decisiones sean explicables, especialmente cuando surgen repercusiones regulatorias o para el cliente.
Orientación estratégica para líderes
Para los ejecutivos de instituciones financieras de todo el mundo, el Marco de Gestión de Riesgos de IA para el sector financiero (FS AI RMF) proporciona una hoja de ruta para integrar la gobernanza de la IA en los procesos de gestión de riesgos existentes. Hace hincapié en la necesidad de una sólida coordinación entre los equipos de tecnología, los responsables de riesgos, los especialistas en cumplimiento normativo y las unidades de negocio para gobernar la IA de forma eficaz.
La adopción de la IA sin una gobernanza sólida conlleva el riesgo de interrupciones operativas, sanciones regulatorias y daños a la reputación. Por el contrario, las empresas que implementan marcos de gobernanza claros y en constante evolución aumentarán la confianza en la implementación de la IA.
La guía presenta la gestión de riesgos de la IA como una práctica dinámica que evoluciona a la par del avance de las tecnologías de IA y los cambios en el marco regulatorio. Las instituciones deben actualizar continuamente sus sistemas de gobernanza y evaluaciones de riesgos.
Conclusión principal: La adopción de la IA y la gobernanza del riesgo deben avanzar en paralelo. El FS AI RMF proporciona una lenguaje y estructura comunes Gestionar de forma responsable los riesgos cambiantes de la IA.
(Fuente de la imagen: “Libros de Derecho” de seychelles88 está bajo licencia CC BY-NC-SA 2.0.)
¿Te interesa aprender de los líderes de la industria de la IA y el big data?
Echa un vistazo al Exposición de IA y Big Data eventos celebrados en Ámsterdam, California y Londres. Esta conferencia integral forma parte de TechEx y se celebra conjuntamente con otras importantes ferias tecnológicas. Para obtener más información, haga clic aquí. aquí.
AI News funciona gracias a Medios de TechForgeExplore los próximos eventos y seminarios web sobre tecnología empresarial. aquí.


Acceso









