Deloitte advierte que el despliegue de agentes de IA está superando los marcos y regulaciones de seguridad.
Un informe innovador de Deloitte ha emitido una advertencia contundente: las empresas están desplegando agentes de IA a un ritmo que supera con creces su capacidad para implementar protocolos y salvaguardas de seguridad adecuados. Esta rápida adopción está aumentando serias preocupaciones en torno a la seguridad, la privacidad de los datos y la rendición de cuentas..
La encuesta revela que los sistemas automatizados están pasando de proyectos piloto a la producción a gran escala con tanta rapidez que los controles de riesgo tradicionales, diseñados originalmente para operaciones centradas en humanos, tienen dificultades para seguir el ritmo de las exigencias de seguridad de los sistemas de IA autónomos.
📊 Estadísticas clave:
- Solo 21% de las organizaciones han implementado una gobernanza estricta para los agentes de IA
- 23% de las empresas Actualmente se utilizan agentes de IA.
- Se espera que aumente a 74% en dos años
- Los no adoptantes pasarán del 25% a solo 5% en el mismo período
⚠️ Mala gobernanza: La verdadera amenaza
Deloitte subraya que Los agentes de IA en sí mismos no son inherentemente peligrosos.En cambio, los riesgos reales provienen de una gestión deficiente del contexto y de marcos de gobernanza débiles. Cuando los agentes operan como entidades autónomas, sus procesos de toma de decisiones y sus acciones pueden volverse rápidamente opacos y carecer de rendición de cuentas.
Sin estructuras de gobernanza sólidas, gestionar estos sistemas se vuelve extremadamente difícil y garantizar la protección contra posibles errores resulta prácticamente imposible.
💡 Opinión de expertos
Según Ali Sarrafi, CEO y fundador de Kovant, la solución reside en "autonomía gobernada"Los agentes bien diseñados, con límites, políticas y definiciones claras —gestionados de la misma manera que las empresas gestionan a los trabajadores humanos— pueden actuar con rapidez en tareas de bajo riesgo dentro de los límites definidos, pero pueden recurrir a los humanos cuando las acciones superan los umbrales de riesgo establecidos.
"Gracias a los registros detallados de acciones, la capacidad de observación y la supervisión humana para las decisiones de alto impacto, los agentes dejan de ser bots misteriosos y se convierten en sistemas que se pueden inspeccionar, auditar y en los que se puede confiar", explica Sarrafi.
Tal y como sugiere el informe de Deloitte, la adopción de agentes de IA se acelerará drásticamente en los próximos años. Solo las empresas que implementen la tecnología con visibilidad y control obtendrán una ventaja competitiva.—no aquellos que simplemente se despliegan más rápido.
🛡️ Por qué los agentes de IA requieren medidas de seguridad robustas
Si bien los agentes de IA pueden tener un desempeño impresionante en demostraciones controladas, con frecuencia tienen dificultades en entornos empresariales reales donde los sistemas están fragmentados y la calidad de los datos es inconsistente.
Sarrafi destaca la naturaleza impredecible de los agentes de IA en estos escenarios: "Cuando a un agente se le proporciona demasiado contexto o alcance a la vez, se vuelve propenso a las alucinaciones y a un comportamiento impredecible."
🔧 Enfoque de sistemas de grado de producción:
- Limitar el alcance de la decisión y del contexto. que los modelos funcionan con
- Descomponer operaciones en tareas más específicas y focalizadas para agentes individuales
- Hacer comportamiento más predecible y más fácil de controlar
- Permitir la trazabilidad y la intervención. para la detección temprana de fallas
- Evite errores en cascada mediante una escalada adecuada.
📋 Responsabilidad para la IA asegurable
A medida que los agentes de IA toman medidas reales dentro de los sistemas empresariales, los paradigmas de riesgo y cumplimiento están cambiando radicalmente. Los registros de acciones detallados transforman las actividades de los agentes en registros claros y evaluables., lo que permite a las organizaciones inspeccionar cada acción con gran detalle.
Esta transparencia es crucial para las aseguradoras, quienes históricamente se han mostrado reacios a cubrir sistemas de IA opacos. El registro exhaustivo ayuda a las aseguradoras a comprender con exactitud qué han hecho los agentes y qué controles se implementaron, lo que facilita considerablemente la evaluación de riesgos.
✓ Con la supervisión humana de las acciones críticas en materia de riesgos y flujos de trabajo auditables y reproducibles, las organizaciones pueden crear sistemas mucho más manejables para una evaluación integral de riesgos y una cobertura de seguros adecuada.
🌐 Estándares de la AAIF: Un primer paso positivo
Estándares compartidos, como los que están siendo desarrollados por la Fundación de IA Agéntica (AAIF)Ayudan a las empresas a integrar diferentes sistemas de agentes. Sin embargo, los esfuerzos de estandarización actuales tienden a centrarse en lo que es más sencillo de construir, en lugar de en lo que las grandes organizaciones realmente necesitan para operar sistemas basados en agentes de forma segura.
🎯 Lo que las empresas realmente necesitan:
- Permisos de acceso y controles basados en roles
- Flujos de trabajo de aprobación para acciones de alto impacto
- Registros auditables y observabilidad sistemas
- Capacidades para Supervisar el comportamiento e investigar incidentes.
- Herramientas para demostrar cumplimiento a los reguladores y a las partes interesadas
🔐 Identidad y permisos: La primera línea de defensa
Limitar a qué pueden acceder los agentes de IA y las acciones que pueden realizar es fundamental para garantizar la seguridad en entornos empresariales reales. Como señala Sarrafi, "Cuando a los agentes se les otorgan privilegios amplios o demasiado contexto, se vuelven impredecibles y plantean riesgos de seguridad o cumplimiento normativo".
La visibilidad y la vigilancia son esenciales. para garantizar que los agentes operen dentro de los límites establecidos. Solo mediante una supervisión integral las partes interesadas podrán generar confianza en la adopción de la tecnología.
Cuando cada acción queda registrada y es gestionable, los equipos pueden ver exactamente lo que ha sucedido, identificar los problemas con rapidez y comprender mejor por qué ocurrieron eventos específicos. Esta visibilidad, combinada con la supervisión humana cuando es necesaria, transforma a los agentes de IA de cajas negras inescrutables en sistemas que pueden ser inspeccionados, reproducidos y auditados.
Este enfoque permite una investigación y corrección rápidas cuando surgen problemas, lo que aumenta significativamente la confianza entre los operadores, los equipos de gestión de riesgos y las aseguradoras por igual.
📘 El plan estratégico de Deloitte para una gobernanza segura de la IA
La estrategia integral de Deloitte para la gobernanza segura de agentes de IA establece límites definidos para las decisiones que pueden tomar los sistemas de agentes. El enfoque emplea niveles de autonomía escalonados:
| Nivel de categoría | Capacidades del agente |
|---|---|
| Nivel 1 | Solo ver información y ofrecer sugerencias |
| Nivel 2 | Realizar acciones limitadas que requieren aprobación humana. |
| Nivel 3 | Actuar automáticamente en zonas de bajo riesgo comprobado. |
Deloitte "Planos de IA cibernética" Recomendamos implementar capas de gobernanza e integrar las políticas y las hojas de ruta de capacidad de cumplimiento directamente en los controles organizativos. Las estructuras de gobernanza que controlan el uso y el riesgo de la IA, al tiempo que integran la supervisión en las operaciones diarias, son fundamentales. para una implementación segura de IA con agentes.
👥 Capacitación de la fuerza laboral: un componente crítico
Preparar a los empleados mediante una formación integral es otro aspecto esencial de una gobernanza segura. Deloitte recomienda capacitar a los empleados en:
- 🚫 ¿Qué información tienen? no debería compartir con sistemas de IA
- ⚡ ¿Qué hacer si los agentes desviarse del camino o comportarse de forma inesperada
- 👁️ Cómo detectar comportamientos inusuales y potencialmente peligrosos en sistemas de IA
⚠️ Advertencia: Si los empleados no comprenden cómo funcionan los sistemas de IA y sus riesgos potenciales, pueden debilitar involuntariamente los controles de seguridad, creando vulnerabilidades incluso en los marcos de gobernanza mejor diseñados.
🎯 Conclusión: Una gobernanza y un control sólidos, junto con una alfabetización organizativa compartida, son fundamentales para el despliegue y el funcionamiento seguros de los agentes de IA, lo que permite un rendimiento seguro, conforme a las normativas y responsable en entornos del mundo real.
❓ Preguntas frecuentes (FAQ)
P1: ¿Qué porcentaje de organizaciones cuenta actualmente con una gobernanza adecuada para los agentes de IA?
A pesar del rápido aumento en las tasas de adopción, solo el 21 % de las organizaciones ha implementado una gobernanza o supervisión rigurosa para los agentes de IA. Esta brecha en la gobernanza representa un riesgo significativo, ya que se prevé que el despliegue de agentes de IA alcance el 74 % de las empresas en los próximos dos años, en un 23 %.
P2: ¿Qué es la "autonomía gobernada" y por qué es importante?
La autonomía gobernada es un enfoque en el que los agentes de IA operan con límites, políticas y definiciones claras, de forma similar a como las empresas gestionan a sus empleados. Los agentes bien diseñados pueden actuar con rapidez en tareas de bajo riesgo dentro de límites definidos, pero recurren a la intervención humana cuando las acciones superan los umbrales de riesgo establecidos. Este marco hace que los agentes sean inspeccionables, auditables y fiables, en lugar de cajas negras misteriosas.
P3: ¿Por qué las aseguradoras se muestran reacias a cubrir los sistemas de IA?
Las aseguradoras se muestran reacias a cubrir sistemas de IA opacos porque no pueden evaluar adecuadamente el riesgo sin comprender las acciones de los agentes y los controles implementados. Los registros detallados de acciones, la supervisión humana de las acciones críticas para el riesgo y los flujos de trabajo auditables son esenciales para que los sistemas de IA sean asegurables, ya que proporcionan la transparencia y la rendición de cuentas que las aseguradoras necesitan para evaluar y fijar el precio del riesgo de forma adecuada.
P4: ¿Cuáles son los componentes clave del enfoque de autonomía escalonada de Deloitte?
El modelo de autonomía escalonada de Deloitte consta de tres niveles: el Nivel 1 permite a los agentes únicamente visualizar información y ofrecer sugerencias; el Nivel 2 permite acciones limitadas, pero requiere aprobación humana; y el Nivel 3 habilita la acción automática en áreas de bajo riesgo comprobado. Este enfoque gradual garantiza que los agentes demuestren fiabilidad antes de que se les otorgue mayor autonomía.
P5: ¿Por qué es fundamental la formación de los empleados para la seguridad de los agentes de IA?
La formación de los empleados es fundamental, ya que quienes desconocen el funcionamiento de los sistemas de IA y sus riesgos potenciales pueden debilitar involuntariamente los controles de seguridad. La formación debe abarcar qué información no debe compartirse con los sistemas de IA, cómo reaccionar ante comportamientos inesperados de los agentes y cómo identificar conductas inusuales o potencialmente peligrosas. Sin este conocimiento compartido, incluso los marcos de gobernanza mejor diseñados pueden verse comprometidos.


Acceso










