专题新闻

德勤警告:人工智能代理部署速度超过安全框架和监管要求

2026年1月30日 由 AICC 提供

一份具有突破性意义的报告 德勤 已发出严厉警告:企业部署人工智能代理的速度远远超过了其实施充分安全协议和保障措施的能力。这种快速普及正在引发…… 安全、数据隐私和问责方面存在严重问题

调查显示,智能体系统正以惊人的速度从试点项目过渡到全面生产,以至于最初为以人为中心的操作而设计的传统风险控制措施难以跟上自主人工智能系统的安全需求。

📊 关键统计数据:

  • 仅有的 21% 的组织 已对人工智能代理实施严格的治理。
  • 23% 的公司 目前使用人工智能代理
  • 预计将上涨至 74% 的人两年内
  • 不采用者比例将从 25% 下降到仅 5% 同期

⚠️治理不善:真正的威胁

德勤强调: 人工智能体本身并不具有内在危险性。然而,真正的风险源于糟糕的情境管理以及薄弱的治理框架。当主体作为自主实体运作时,它们的决策过程和行为很快就会变得不透明且缺乏问责。

如果没有健全的治理结构,管理这些系统将变得极其困难,而且几乎不可能避免潜在的错误。

💡专家见解

据 Kovant 首席执行官兼创始人 Ali Sarrafi 称,解决方案在于 “受治理的自治”精心设计的智能体,拥有清晰的边界、策略和定义——以企业管理人类员工的方式进行管理——可以在定义的安全范围内快速执行低风险任务,但当行为超过既定的风险阈值时,则会升级到由人类处理。

萨拉菲解释说:“有了详细的操作日志、可观察性以及对高影响力决策的人工把关,代理不再是神秘的机器人,而是你可以检查、审计和信任的系统。”

正如德勤的报告所表明的那样,人工智能代理的普及应用将在未来几年内大幅加速。 只有那些能够以可视性和可控性部署技术的公司才能获得竞争优势。——并非那些部署速度最快的公司。

🛡️ 为什么人工智能代理需要强大的防护机制

虽然人工智能代理在受控演示中可能表现出色,但在系统分散、数据质量不一致的现实世界商业环境中,它们经常会遇到困难。

萨拉菲强调了人工智能代理在这些场景中的不可预测性: “当一个智能体一次性被赋予过多的背景信息或范围时,它就容易产生幻觉和不可预测的行为。”

🔧 生产级系统方法:

  • 限制决策和背景范围 该模型与
  • 分解操作 分解为更狭窄、更集中的任务,供各个代理人执行。
  • 做出行为 更可预测且更容易控制
  • 实现可追溯性和干预 用于早期故障检测
  • 通过适当的升级措施防止连锁错误

📋 可保人工智能的问责制

随着人工智能代理在业务系统中采取实际行动,风险和合规的范式正在发生根本性的转变。 详细的行动日志将代理人的活动转化为清晰、可评估的记录。使组织能够详细检查每一个操作。

这种透明度是 对保险公司至关重要保险公司历来不愿承保不透明的人工智能系统。全面的日志记录有助于保险公司准确了解代理人的具体操作以及已采取的控制措施,从而显著提高风险评估的可行性。

通过对风险关键行动进行人工监督,以及建立可审计、可重现的工作流程,组织可以建立更易于管理的系统,从而进行全面的风险评估和保险覆盖。

🌐 AAIF 标准:积极的第一步

共享标准,例如由以下机构正在制定的标准: 智能体人工智能基金会(AAIF)帮助企业集成不同的代理系统。然而,目前的标准化工作往往侧重于构建最简便的系统,而不是大型组织安全运行代理系统的实际需求。

🎯 企业真正需要什么:

  • 访问权限 以及基于角色的控制
  • 审批流程 针对高影响力行动
  • 可审计日志和可观测性 系统
  • 能力 监控行为并调查事件
  • 工具 证明合规性 致监管机构和利益相关者

🔐身份与权限:第一道防线

限制人工智能代理可以访问的内容和可以执行的操作 对确保安全至关重要 在真实的商业环境中,正如萨拉菲所指出的那样,“当赋予代理广泛的权限或过多的上下文信息时,它们就会变得难以预测,并带来安全或合规风险。”

可视性和监测至关重要 确保代理商在既定范围内运作。只有通过全面的监督,利益相关者才能对这项技术的应用建立信心。

当每个操作都被记录并可管理时,团队可以准确地看到发生了什么,及时发现问题,并更好地了解特定事件发生的原因。 这种可见性,再加上在关键之处的人工监督,将人工智能代理从难以理解的黑箱转变为可以检查、重放和审计的系统。

这种方法可以在出现问题时迅速进行调查和纠正,从而大大增强运营商、风险团队和保险公司之间的信任。

📘 德勤安全人工智能治理蓝图

德勤关于安全人工智能代理治理的全面战略确立了 界定边界 针对智能体系统可以做出的决策,该方法采用分层自主级别:

等级 代理能力
一级 仅查看信息并提供建议
二级 采取有限行动,需经人工批准。
三级 在已证实的低风险区域自动采取行动

德勤 《网络人工智能蓝图》 建议实施治理层级,并将政策和合规能力路线图直接嵌入组织控制中。 能够追踪人工智能使用情况和风险,并将监督融入日常运营的治理结构至关重要。 为了安全部署智能体人工智能。

👥 员工培训:至关重要的组成部分

通过全面培训提升员工素质是安全治理的另一个重要方面。德勤建议对员工进行以下方面的培训:

  • 🚫 他们提供什么信息 不应分享 人工智能系统
  • 如果代理人出现问题该怎么办 偏离轨道 或行为出乎意料
  • 👁️ 如何 发现异常的、可能危险的行为 在人工智能系统中

⚠️警告: 如果员工不了解人工智能系统的工作原理及其潜在风险,他们可能会无意中削弱安全控制,即使在设计最完善的治理框架中也造成漏洞。

🎯 结论: 健全的治理和控制,以及共同的组织知识,是安全部署和运行人工智能代理的基础,能够在现实世界环境中实现安全、合规和负责的绩效。

❓ 常见问题解答 (FAQ)

问题1:目前有多少百分比的组织对人工智能代理进行了适当的治理?

尽管人工智能代理的采用率迅速提高,但只有 21% 的组织机构实施了严格的治理或监督机制。随着人工智能代理的部署率在未来两年内预计将从 23% 加速增长至 74%,这种治理缺口构成了一项重大风险。

Q2:什么是“受治理的自治”,为什么它很重要?

受控自主是一种人工智能代理在明确的边界、策略和定义下运行的方法,类似于企业管理员工的方式。精心设计的代理可以在既定的安全范围内快速完成低风险工作,但当行为超出既定风险阈值时,则需要人类介入。这种框架使代理变得可检查、可审计且值得信赖,而不是神秘的黑箱。

问题3:为什么保险公司不愿承保人工智能系统?

保险公司不愿承保不透明的人工智能系统,因为如果不了解代理人的具体操作和已采取的控制措施,就无法充分评估风险。详细的操作日志、对关键风险操作的人工监督以及可审计的工作流程对于确保人工智能系统的可保性至关重要,因为这些要素能够提供保险公司评估风险并进行合理定价所需的透明度和问责机制。

问题 4:德勤分层自主方法的关键组成部分是什么?

德勤的分级自主模型分为三个级别:一级仅允许智能体查看信息并提供建议;二级允许智能体执行有限的操作,但需要人工批准;三级则允许智能体在已验证的低风险领域自动执行操作。这种循序渐进的方法确保智能体在获得更高自主权之前,必须先展现出可靠性。

Q5:为什么员工培训对人工智能代理的安全至关重要?

员工培训至关重要,因为不了解人工智能系统工作原理及其潜在风险的员工可能会在无意中削弱安全控制措施。培训内容应涵盖哪些信息不应与人工智能系统共享、当系统出现异常行为时应如何应对,以及如何识别异常或潜在危险行为。如果缺乏这种共同的认知,即使是精心设计的治理框架也可能失效。