Главные новости

Компания Deloitte предупреждает, что внедрение агентов искусственного интеллекта опережает темпы развития нормативных актов и систем обеспечения безопасности.

2026-01-30 от AICC

Сенсационный доклад от Делойт Было выпущено суровое предупреждение: предприятия внедряют агентов на основе ИИ с такой скоростью, которая значительно опережает их способность внедрять адекватные протоколы безопасности и меры защиты. Это быстрое внедрение вызывает рост Серьезные опасения по поводу безопасности, конфиденциальности данных и подотчетности..

Исследование показывает, что агентные системы переходят от пилотных проектов к полномасштабному производству настолько быстро, что традиционные методы контроля рисков, изначально разработанные для операций, ориентированных на человека, с трудом справляются с требованиями безопасности автономных систем искусственного интеллекта.

📊 Ключевые статистические данные:

  • Только 21% организаций Внедрены строгие правила управления для агентов искусственного интеллекта.
  • 23% компаний в настоящее время используются агенты искусственного интеллекта
  • Ожидается, что он вырастет до 74% в течение двух лет
  • Доля тех, кто не станет пользователем, сократится с 25% до всего лишь... 5% в тот же период

⚠️ Неэффективное управление: реальная угроза

Компания Deloitte подчеркивает, что Сами по себе агенты искусственного интеллекта не представляют собой опасности.Вместо этого реальные риски проистекают из плохого управления контекстом и слабых рамок управления. Когда агенты действуют как автономные сущности, их процессы принятия решений и действия могут быстро стать непрозрачными и неподотчетными.

Без надежных структур управления руководить этими системами становится крайне сложно, а страхование от потенциальных ошибок — практически невозможно.

💡 Мнение эксперта

По словам Али Саррафи, генерального директора и основателя компании Kovant, решение кроется в «управляемая автономия»Хорошо спроектированные агенты с четкими границами, правилами и определениями — управляемые так же, как предприятия управляют людьми, — могут быстро выполнять задачи с низким уровнем риска в рамках установленных ограничений, но передавать управление людям, когда действия превышают установленные пороговые значения риска.

«Благодаря подробным журналам действий, возможности наблюдения и контролю со стороны человека при принятии важных решений, агенты перестают быть загадочными ботами и превращаются в системы, которые можно проверять, аудитировать и которым можно доверять», — объясняет Саррафи.

Как показывает отчет Deloitte, внедрение агентов искусственного интеллекта в ближайшие годы значительно ускорится. Только компании, внедряющие технологии с обеспечением прозрачности и контроля, получат конкурентное преимущество.—не те, кто просто быстрее всех развертывается.

🛡️ Почему агентам ИИ необходимы надежные механизмы защиты

Хотя агенты искусственного интеллекта могут демонстрировать впечатляющие результаты в контролируемых демонстрациях, в реальных бизнес-средах, где системы фрагментированы, а качество данных непостоянно, они часто испытывают трудности.

Саррафи подчеркивает непредсказуемый характер действий агентов ИИ в этих сценариях: «Когда субъекту предоставляется слишком много контекста или возможностей одновременно, он становится склонен к галлюцинациям и непредсказуемому поведению».

🔧 Системный подход производственного уровня:

  • Ограничьте область принятия решений и контекст. с которыми работают модели
  • Разложите операции в более узкие, сфокусированные задачи для отдельных агентов
  • Сформировать поведение более предсказуемый и проще в управлении
  • Обеспечьте отслеживаемость и возможность вмешательства. для раннего обнаружения отказов
  • Предотвратите каскадные ошибки путем надлежащей эскалации.

📋 Ответственность за использование ИИ, подлежащего страхованию

Поскольку агенты искусственного интеллекта совершают реальные действия в рамках бизнес-систем, парадигмы управления рисками и соблюдения нормативных требований коренным образом меняются. Подробные журналы действий преобразуют деятельность агентов в четкие, поддающиеся оценке записи.это позволяет организациям детально проверять каждое действие.

Эта прозрачность крайне важно для страховщиков, которые исторически неохотно страховали непрозрачные системы искусственного интеллекта. Комплексное ведение журналов помогает страховщикам точно понять, что делали агенты и какие меры контроля были приняты, что значительно упрощает оценку рисков.

Благодаря человеческому контролю над действиями, критически важными с точки зрения риска, и проверяемым, воспроизводимым рабочим процессам, организации могут создавать системы, которые гораздо проще в управлении для комплексной оценки рисков и страхового покрытия.

🌐 Стандарты AAIF: позитивный первый шаг

Общие стандарты, такие как те, которые разрабатываются Фонд Agentic AI (AAIF)помогают предприятиям интегрировать различные агентские системы. Однако нынешние усилия по стандартизации, как правило, сосредоточены на том, что проще всего создать, а не на том, что действительно необходимо крупным организациям для безопасной эксплуатации агентских систем.

🎯 Что действительно нужно предприятиям:

  • Права доступа и ролевые элементы управления
  • Процессы утверждения для действий, оказывающих значительное влияние
  • Журналы аудита и возможность мониторинга системы
  • Возможности для отслеживать поведение и расследовать инциденты
  • Инструменты для доказать соответствие регулирующим органам и заинтересованным сторонам

🔐 Идентификация и права доступа: первая линия защиты

Ограничение доступа ИИ-агентов к определенным ресурсам и выполняемых ими действий имеет важное значение. критически важен для обеспечения безопасности в реальных условиях ведения бизнеса. Как отмечает Саррафи, «когда агентам предоставляются широкие привилегии или слишком много контекста, они становятся непредсказуемыми и создают риски для безопасности или соблюдения нормативных требований».

Обеспечение прозрачности и мониторинга имеет важное значение. чтобы агенты работали в установленных пределах. Только благодаря всестороннему контролю заинтересованные стороны смогут обрести уверенность в внедрении этой технологии.

Когда каждое действие регистрируется и становится доступным для управления, команды могут точно видеть, что произошло, оперативно выявлять проблемы и лучше понимать, почему произошли те или иные события. Такая прозрачность в сочетании с человеческим контролем там, где это важно, превращает агентов ИИ из непостижимых «черных ящиков» в системы, которые можно проверять, воспроизводить и аудитировать.

Такой подход позволяет оперативно расследовать и устранять возникающие проблемы, что значительно повышает доверие между операторами, группами по управлению рисками и страховщиками.

📘 План Deloitte по безопасному управлению ИИ

Комплексная стратегия Deloitte по безопасному управлению агентами ИИ устанавливает определенные границы для принятия решений, которые могут принимать агентные системы. В этом подходе используются многоуровневые уровни автономности:

Уровень Возможности агента
Уровень 1 Просматривайте информацию и предлагайте свои идеи.
Уровень 2 Выполнять ограниченные действия с обязательным одобрением человека.
Уровень 3 Действовать автоматически в зонах с доказанным низким риском

Делойт «Проекты кибер-ИИ» Рекомендуется внедрить многоуровневое управление и интегрировать политики и планы развития компетенций в области обеспечения соответствия требованиям непосредственно в организационные механизмы контроля. Структуры управления, отслеживающие использование ИИ и связанные с этим риски, а также внедряющие надзор в повседневную деятельность, имеют основополагающее значение. для безопасного развертывания агентного ИИ.

👥 Обучение персонала: важнейший компонент

Подготовка персонала посредством всестороннего обучения — еще один важный аспект безопасного управления. Компания Deloitte рекомендует обучать сотрудников следующим темам:

  • 🚫 Какую информацию они предоставили? не следует делиться с системами искусственного интеллекта
  • Что делать, если агенты сбиться с пути или вести себя неожиданно
  • 👁️ Как выявлять необычное, потенциально опасное поведение в системах искусственного интеллекта

⚠️ Предупреждение: Если сотрудники не понимают, как работают системы искусственного интеллекта и какие риски они представляют, они могут непреднамеренно ослабить меры безопасности, создавая уязвимости даже в самых хорошо разработанных системах управления.

🎯 Итог: Надежное управление и контроль, наряду с общим уровнем организационной грамотности, имеют основополагающее значение для безопасного развертывания и эксплуатации агентов ИИ, обеспечивая безопасную, соответствующую требованиям и подотчетную работу в реальных условиях.

❓ Часто задаваемые вопросы (FAQ)

В1: Какой процент организаций в настоящее время имеет надлежащее управление агентами искусственного интеллекта?

Несмотря на быстро растущие темпы внедрения, лишь 21% организаций внедрили строгие механизмы управления или надзора за агентами ИИ. Этот пробел в управлении представляет собой значительный риск, поскольку внедрение агентов ИИ ускорится с 23% до, как ожидается, 74% компаний в течение следующих двух лет.

В2: Что такое «управляемая автономия» и почему она важна?

Управляемая автономия — это подход, при котором агенты ИИ работают в рамках четких границ, правил и определений, подобно тому, как предприятия управляют людьми. Хорошо спроектированные агенты могут быстро выполнять работу с низким уровнем риска в рамках заданных ограничений, но передают управление человеку, когда действия превышают установленные пороговые значения риска. Такая структура делает агентов проверяемыми, поддающимися аудиту и заслуживающими доверия, а не загадочными «черными ящиками».

В3: Почему страховые компании неохотно покрывают расходы на системы искусственного интеллекта?

Страховые компании неохотно страхуют непрозрачные системы искусственного интеллекта, поскольку не могут адекватно оценить риск, не понимая, что делали агенты и какие меры контроля были приняты. Подробные журналы действий, человеческий контроль за действиями, критически важными для оценки риска, и проверяемые рабочие процессы необходимы для того, чтобы сделать системы ИИ пригодными для страхования, поскольку они обеспечивают прозрачность и подотчетность, необходимые страховщикам для надлежащей оценки и ценообразования рисков.

В4: Каковы ключевые компоненты многоуровневого подхода Deloitte к обеспечению автономии?

Модель многоуровневой автономии Deloitte включает три этапа: На первом этапе агенты могут только просматривать информацию и предлагать варианты; на втором этапе разрешены ограниченные действия, но требуется одобрение человека; и на третьем этапе разрешены автоматические действия в областях с низким уровнем риска. Такой поэтапный подход гарантирует, что агенты продемонстрируют свою надежность, прежде чем им будет предоставлена ​​повышенная степень автономии.

В5: Почему обучение сотрудников имеет решающее значение для безопасности агентов ИИ?

Обучение сотрудников имеет важное значение, поскольку работники, не понимающие принципов работы систем искусственного интеллекта и потенциальных рисков, могут непреднамеренно ослабить меры безопасности. Обучение должно охватывать, какая информация не должна передаваться системам ИИ, как реагировать на неожиданное поведение агентов и как выявлять необычное или потенциально опасное поведение. Без этой общей осведомленности даже хорошо разработанные системы управления могут быть скомпрометированы.