Noticias destacadas

Lagunas en la gobernanza y el control regulatorio de los agentes de IA: lo que necesita saber en 2026.

4 de mayo de 2026 por AICC
Advertencia sobre la gobernanza de la IA

El regulador financiero de Australia ha emitido un comunicado. advertencia crítica a las instituciones financieras con respecto a prácticas inadecuadas de gobernanza y garantía relacionadas con Despliegue de agentes de IAEsta alerta surge a medida que los bancos y los administradores de fondos de pensiones integran cada vez más la inteligencia artificial tanto en sus operaciones internas como en los servicios de atención al cliente.

📊 Resultados de la revisión selectiva de APRA

El Autoridad Australiana de Regulación Prudencial (APRA) Se llevó a cabo una revisión exhaustiva y específica de determinadas entidades reguladas de gran tamaño a finales de 2025 para evaluar los patrones de adopción de la IA y los riesgos prudenciales asociados. La investigación reveló que, si bien la tecnología de IA se estaba utilizando en todas las entidades revisadas, existía variación significativa en la madurez de la gestión de riesgos y capacidades de resiliencia operativa.

APRA constató que los consejos de administración mostraron un gran entusiasmo por el potencial de la IA para mejorar la productividad y la experiencia del cliente. Sin embargo, muchas organizaciones aún se encontraban en las primeras etapas del desarrollo de marcos integrales de gestión de riesgos de la IA.

⚠️ Principales preocupaciones sobre la gobernanza

El regulador identificó varios deficiencias críticas en la gobernanza, en particular con respecto a:

  • Dependencia excesiva de las presentaciones de los proveedores y resúmenes ejecutivos sin un escrutinio independiente suficiente
  • Evaluación inadecuada del comportamiento impredecible del modelo y los posibles impactos de fallos de la IA en operaciones críticas
  • Comprensión insuficiente de las tecnologías de IA a nivel de la junta directiva para una supervisión estratégica eficaz.

APRA enfatizó que las juntas deben desarrollar una comprensión más profunda de la IA para establecer una estrategia coherente y mecanismos de supervisión. El regulador hizo hincapié en que la estrategia de IA debe estar alineada con el nivel de riesgo aceptable para cada institución e incorporar protocolos de monitoreo sólidos y procedimientos de respuesta ante errores claramente definidos.

💼 Panorama actual de la implementación de la IA

APRA observó que las entidades reguladas están probando o implementando activamente la IA en múltiples áreas operativas, entre las que se incluyen:

  • Ingeniería de software y aceleración del desarrollo
  • Clasificación de reclamaciones y optimización del procesamiento
  • Procesamiento de solicitudes de préstamo y suscripción
  • Interrupción de fraudes y estafas sistemas
  • Interacción con el cliente y mejora del servicio

Un hallazgo preocupante fue que algunas entidades estaban tratando Riesgos de IA equivalentes a los riesgos de las tecnologías tradicionales.un enfoque que no tiene en cuenta desafíos únicos como la imprevisibilidad del comportamiento del modelo y el sesgo algorítmico.

🔍 Se han identificado deficiencias en la gestión de riesgos.

La revisión identificó importantes deficiencias operativas en varias áreas críticas:

• Monitoreo del comportamiento del modelo: Seguimiento insuficiente en tiempo real del rendimiento y los patrones de decisión del sistema de IA.

• Gestión del cambio: Procesos inadecuados para las actualizaciones y modificaciones de los sistemas de IA.

• Procedimientos de desmantelamiento: Falta de enfoques estructurados para la retirada de sistemas de IA

• Inventarios de herramientas de IA: Catalogación incompleta de instancias de IA desplegadas

• Responsabilidad y propiedad: Asignación poco clara de responsabilidades para las implementaciones individuales de IA.

APRA hizo especial hincapié en la requisito fundamental para la participación humana en procesos de toma de decisiones de alto riesgo que involucran sistemas de IA.

🔐 Retos de la ciberseguridad y la gestión de accesos

La ciberseguridad surgió como una área principal de preocupación regulatoriaAPRA señaló que la adopción de la IA está transformando fundamentalmente el panorama de amenazas al introducir nuevos vectores de ataque, entre los que se incluyen:

  • Ataques de inyección rápida apuntando a las entradas del modelo de IA
  • Integraciones inseguras entre los sistemas de IA y la infraestructura existente
  • Vulnerabilidades en el código generado por IA

Un hallazgo particularmente preocupante fue que prácticas de gestión de identidad y acceso No se habían adaptado adecuadamente para incorporar elementos no humanos, como los agentes de IA. Además, la proliferación del desarrollo de software asistido por IA estaba ejerciendo una presión sin precedentes sobre los mecanismos de control de cambios y versiones.

APRA exigió que las entidades implementaran controles rigurosos en los flujos de trabajo autónomos y basados ​​en agentes, incluyendo la gestión de acceso privilegiado, la supervisión de la configuración y protocolos de parcheo sistemáticos. También se identificó como esencial la realización de pruebas de seguridad en el código generado por IA.

🔗 Riesgos de dependencia de proveedores

La revisión reveló niveles de concentración de proveedoresAlgunas instituciones se han vuelto dependientes de un único proveedor para múltiples instancias de IA. Resulta alarmante que solo un pequeño número de entidades haya podido demostrar planes de salida viables o estrategias de sustitución de proveedores de IA.

APRA destacó que La IA puede integrarse en las dependencias ascendentes., potencialmente sin que la entidad sea consciente de ello, creando riesgos operativos y estratégicos ocultos.

🌐 Respuesta de la industria: Nuevos estándares de autenticación

El enfoque en los controles de identidad y permisos se está abordando a través del desarrollo de nuevos estándares por parte de la Alianza FIDOLa organización ha establecido un Grupo de trabajo técnico de autenticación agemática desarrollar especificaciones para el comercio iniciado por agentes.

FIDO señaló que los modelos de autenticación y autorización existentes fueron diseñados principalmente para la interacción humana, no para acciones delegadas realizadas por software autónomoLos proveedores de servicios requieren nuevas metodologías para verificar quién o qué autoriza las acciones y bajo qué condiciones.

Entre las soluciones de proveedores destacadas que están siendo revisadas por FIDO se incluyen:

  • Protocolo de pagos para agentes de Google
  • Marco de intención verificable de Mastercard

📘 Desarrollo de marcos de seguridad

El Centro para la Seguridad en Internet, una organización sin fines de lucro financiada en gran parte por el Departamento de Seguridad Nacional, ha publicado Guías complementarias sobre seguridad en IA que asignan los controles CIS v8.1 a grandes modelos de lenguaje, agentes de IA y entornos del Protocolo de Contexto de Modelo.

Estas guías completas abordan:

  • Guía del programa LLM: Cubre vulnerabilidades de inyección rápida y problemas de protección de datos sensibles.
  • Guía MCP: Se centra en el acceso seguro mediante herramientas de software, identidades no humanas e interacciones de red.

(Foto de Julien Tromeur)

📚 Oportunidades de aprendizaje adicional

Para los profesionales que buscan profundizar su comprensión de la IA y el big data de la mano de líderes de la industria, el Exposición de IA y Big Data ofrece información completa. Este evento se lleva a cabo en Ámsterdam, California y Londres, y forma parte de TechEx, ubicada junto con otras conferencias tecnológicas líderes, incluyendo la Exposición de Ciberseguridad y NubeHaga clic en . aquí Para obtener más información.

AI News funciona gracias a Medios de TechForgeExplore otros próximos eventos y seminarios web sobre tecnología empresarial. aquí.

Más de 300 modelos de IA para
OpenClaw y agentes de IA

Ahorre un 20% en costos