Noticias destacadas

Deloitte advierte que la implementación de agentes de IA está superando los marcos y regulaciones de seguridad.

30 de enero de 2026 por AICC

Un informe innovador de Deloitte ha emitido una severa advertencia: las empresas están implementando agentes de IA a un ritmo que supera con creces su capacidad para implementar protocolos y medidas de seguridad adecuados. Esta rápida adopción está aumentando serias preocupaciones en torno a la seguridad, la privacidad de los datos y la rendición de cuentas.

La encuesta revela que los sistemas agenticos están pasando de proyectos piloto a producción a gran escala tan rápidamente que los controles de riesgo tradicionales, originalmente diseñados para operaciones centradas en el ser humano, están teniendo dificultades para seguir el ritmo de las demandas de seguridad de los sistemas de IA autónomos.

📊 Estadísticas clave:

  • Solo 21% de las organizaciones Han implementado una gobernanza estricta para los agentes de IA
  • 23% de las empresas Actualmente utilizamos agentes de IA
  • Se espera que aumente a 74% en dos años
  • Los no adoptantes se reducirán del 25% a solo 5% en el mismo período

⚠️ Mala gobernanza: la verdadera amenaza

Deloitte destaca que Los agentes de IA en sí mismos no son intrínsecamente peligrososEn cambio, los verdaderos riesgos provienen de una gestión deficiente del contexto y de marcos de gobernanza débiles. Cuando los agentes operan como entidades autónomas, sus procesos de toma de decisiones y acciones pueden volverse rápidamente opacos e irresponsables.

Sin estructuras de gobernanza sólidas, gestionar estos sistemas se vuelve extremadamente difícil y protegerse contra posibles errores se vuelve casi imposible.

💡 Perspectiva de expertos

Según Ali Sarrafi, CEO y fundador de Kovant, la solución está en "autonomía gobernada"Los agentes bien diseñados, con límites, políticas y definiciones claras (gestionados de la misma manera que las empresas gestionan a los trabajadores humanos) pueden actuar con rapidez en tareas de bajo riesgo dentro de límites definidos, pero escalar a los humanos cuando las acciones cruzan los umbrales de riesgo establecidos.

"Con registros de acciones detallados, capacidad de observación y control humano para decisiones de alto impacto, los agentes dejan de ser bots misteriosos y se convierten en sistemas que puedes inspeccionar, auditar y en los que puedes confiar", explica Sarrafi.

Como sugiere el informe de Deloitte, la adopción de agentes de IA se acelerará drásticamente en los próximos años. Sólo las empresas que implementen la tecnología con visibilidad y control obtendrán ventaja competitiva—no aquellos que simplemente se despliegan más rápido.

🛡️ Por qué los agentes de IA requieren barreras de seguridad sólidas

Si bien los agentes de IA pueden desempeñarse de manera impresionante en demostraciones controladas, con frecuencia tienen dificultades en entornos comerciales del mundo real, donde los sistemas están fragmentados y la calidad de los datos es inconsistente.

Sarrafi destaca la naturaleza impredecible de los agentes de IA en estos escenarios: "Cuando a un agente se le da demasiado contexto o alcance a la vez, se vuelve propenso a alucinaciones y comportamiento impredecible".

Enfoque de sistemas de grado de producción:

  • Limitar el alcance de la decisión y del contexto con que funcionan los modelos
  • Operaciones de descomposición en tareas más estrechas y enfocadas para agentes individuales
  • Realizar comportamiento más predecible y más fácil de controlar
  • Permitir la trazabilidad y la intervención para la detección temprana de fallos
  • Prevenir errores en cascada mediante una escalada adecuada

📋 Responsabilidad por la IA asegurable

A medida que los agentes de IA realizan acciones reales dentro de los sistemas comerciales, los paradigmas de riesgo y cumplimiento están cambiando fundamentalmente. Los registros de acciones detallados transforman las actividades de los agentes en registros claros y evaluables, permitiendo a las organizaciones inspeccionar cada acción con gran detalle.

Esta transparencia es crucial para las aseguradoras, quienes históricamente se han mostrado reacios a cubrir sistemas de IA opacos. Un registro exhaustivo ayuda a las aseguradoras a comprender exactamente qué han hecho los agentes y qué controles se implementaron, lo que facilita considerablemente la evaluación de riesgos.

Con supervisión humana de acciones críticas de riesgo y flujos de trabajo auditables y reproducibles, las organizaciones pueden producir sistemas que sean mucho más manejables para la evaluación integral de riesgos y la cobertura de seguros.

Estándares de la AAIF: un primer paso positivo

Estándares compartidos, como los que están siendo desarrollados por la Fundación de IA Agentic (AAIF)Ayudan a las empresas a integrar diferentes sistemas de agentes. Sin embargo, los esfuerzos actuales de estandarización tienden a centrarse en lo más sencillo de construir, en lugar de en lo que las grandes organizaciones realmente necesitan para operar sistemas de agentes de forma segura.

🎯 Lo que las empresas realmente necesitan:

  • Permisos de acceso y controles basados ​​en roles
  • Flujos de trabajo de aprobación para acciones de alto impacto
  • Registros auditables y observabilidad sistemas
  • Capacidades para Monitorear el comportamiento e investigar incidentes
  • Herramientas para demostrar el cumplimiento a los reguladores y las partes interesadas

🔐 Identidad y permisos: la primera línea de defensa

Limitar el acceso a los agentes de IA y las acciones que pueden realizar es fundamental para garantizar la seguridad En entornos empresariales reales. Como señala Sarrafi: «Cuando a los agentes se les otorgan amplios privilegios o demasiado contexto, se vuelven impredecibles y plantean riesgos de seguridad o cumplimiento normativo».

La visibilidad y el seguimiento son esenciales Para mantener a los agentes operando dentro de los límites establecidos. Solo mediante una supervisión exhaustiva, las partes interesadas pueden desarrollar confianza en la adopción de la tecnología.

Cuando cada acción se registra y se puede gestionar, los equipos pueden ver exactamente qué sucedió, identificar problemas rápidamente y comprender mejor por qué ocurrieron eventos específicos. Esta visibilidad, combinada con la supervisión humana donde es importante, transforma a los agentes de IA de cajas negras inescrutables en sistemas que pueden inspeccionarse, reproducirse y auditarse.

Este enfoque permite una rápida investigación y corrección cuando surgen problemas, lo que aumenta significativamente la confianza entre operadores, equipos de riesgo y aseguradoras por igual.

Plan de Deloitte para una gobernanza segura de la IA

La estrategia integral de Deloitte para la gobernanza segura de los agentes de IA establece límites definidos Para las decisiones que pueden tomar los sistemas agenciales. El enfoque emplea niveles de autonomía escalonados:

Nivel de nivel Capacidades del agente
Nivel 1 Ver información y ofrecer sugerencias únicamente
Nivel 2 Realizar acciones limitadas que requieren aprobación humana
Nivel 3 Actuar automáticamente en áreas de bajo riesgo comprobado

Deloitte "Planos de inteligencia artificial cibernética" Recomendamos implementar capas de gobernanza e incorporar políticas y hojas de ruta de capacidad de cumplimiento directamente en los controles organizacionales. Las estructuras de gobernanza que rastrean el uso y el riesgo de la IA, al tiempo que integran la supervisión en las operaciones diarias, son fundamentales para una implementación segura de IA con agentes.

👥 Capacitación de la fuerza laboral: un componente crítico

Preparar a la fuerza laboral mediante una formación integral es otro aspecto esencial de una gobernanza segura. Deloitte recomienda capacitar a los empleados en:

  • 🚫 ¿Qué información tienen? no debería compartir con sistemas de IA
  • ¿Qué hacer si los agentes? salirse del camino o comportarse de forma inesperada
  • 👁️ Cómo Detectar comportamientos inusuales y potencialmente peligrosos en sistemas de IA

⚠️ Advertencia: Si los empleados no comprenden cómo funcionan los sistemas de IA y sus riesgos potenciales, pueden debilitar involuntariamente los controles de seguridad, creando vulnerabilidades incluso en los marcos de gobernanza mejor diseñados.

En resumen: Una gobernanza y un control sólidos, junto con una alfabetización organizacional compartida, son fundamentales para la implementación y el funcionamiento seguros de los agentes de IA, lo que permite un desempeño seguro, compatible y responsable en entornos del mundo real.

❓ Preguntas frecuentes (FAQ)

P1: ¿Qué porcentaje de organizaciones cuentan actualmente con una gobernanza adecuada para los agentes de IA?

Solo el 21 % de las organizaciones han implementado una gobernanza o supervisión rigurosa para los agentes de IA, a pesar del rápido aumento en las tasas de adopción. Esta brecha de gobernanza representa un riesgo significativo, ya que la implementación de agentes de IA se acelerará del 23 % al 74 % previsto en las empresas en los próximos dos años.

P2: ¿Qué es la “autonomía gobernada” y por qué es importante?

La autonomía gobernada es un enfoque en el que los agentes de IA operan con límites, políticas y definiciones claras, de forma similar a cómo las empresas gestionan a sus trabajadores humanos. Los agentes bien diseñados pueden actuar con rapidez en tareas de bajo riesgo dentro de los límites definidos, pero escalan a los humanos cuando las acciones superan los umbrales de riesgo establecidos. Este marco permite que los agentes sean inspeccionables, auditables y confiables, en lugar de ser meras cajas negras.

P3: ¿Por qué las aseguradoras se muestran reacias a cubrir los sistemas de IA?

Las aseguradoras dudan en cubrir sistemas de IA opacos porque no pueden evaluar adecuadamente el riesgo sin comprender las acciones de los agentes y los controles implementados. Los registros detallados de acciones, la supervisión humana de las acciones críticas para el riesgo y los flujos de trabajo auditables son esenciales para que los sistemas de IA sean asegurables, ya que proporcionan la transparencia y la rendición de cuentas que las aseguradoras necesitan para evaluar y tasar el riesgo adecuadamente.

P4: ¿Cuáles son los componentes clave del enfoque de autonomía escalonada de Deloitte?

El modelo de autonomía escalonada de Deloitte se desarrolla en tres niveles: el Nivel 1 permite a los agentes solo ver información y ofrecer sugerencias; el Nivel 2 permite acciones limitadas, pero requiere aprobación humana; y el Nivel 3 habilita la acción automática en áreas de bajo riesgo comprobado. Este enfoque gradual garantiza que los agentes demuestren fiabilidad antes de obtener mayor autonomía.

P5: ¿Por qué es fundamental la capacitación de los empleados para la seguridad de los agentes de IA?

La capacitación de los empleados es esencial, ya que quienes no comprenden el funcionamiento de los sistemas de IA y sus posibles riesgos pueden debilitar involuntariamente los controles de seguridad. La capacitación debe abarcar qué información no debe compartirse con los sistemas de IA, cómo responder ante comportamientos inesperados de los agentes y cómo identificar comportamientos inusuales o potencialmente peligrosos. Sin esta alfabetización compartida, incluso los marcos de gobernanza bien diseñados pueden verse comprometidos.