Notícias em destaque

Governança de agentes de IA e lacunas no controle regulatório: o que você precisa saber em 2026

2026-05-04 por AICC
Alerta sobre a Governança da IA

O regulador financeiro da Austrália emitiu um comunicado. aviso crítico às instituições financeiras relativamente às práticas inadequadas de governação e garantia em torno de implantação de agentes de IAEste alerta surge à medida que bancos e administradores de fundos de pensão integram cada vez mais a inteligência artificial tanto em suas operações internas quanto em seus serviços voltados para o cliente.

📊 Resultados da Revisão Direcionada da APRA

O Autoridade Australiana de Regulação Prudencial (APRA) Realizou-se uma revisão abrangente e direcionada de grandes entidades regulamentadas selecionadas no final de 2025 para avaliar os padrões de adoção de IA e os riscos prudenciais associados. A investigação revelou que, embora a tecnologia de IA estivesse sendo utilizada em todas as entidades analisadas, existiam variação significativa na maturidade da gestão de riscos e capacidades de resiliência operacional.

A APRA constatou que os conselhos administrativos demonstraram grande entusiasmo pelo potencial da IA ​​para aumentar a produtividade e a experiência do cliente. No entanto, muitas organizações ainda estavam nos estágios iniciais de desenvolvimento de estruturas abrangentes de gestão de riscos de IA.

⚠️ Principais preocupações de governança

O órgão regulador identificou vários deficiências críticas de governança, particularmente no que diz respeito a:

  • Dependência excessiva de apresentações de fornecedores e resumos executivos sem escrutínio independente suficiente
  • Avaliação inadequada do comportamento imprevisível do modelo e os potenciais impactos de falhas da IA ​​em operações críticas.
  • Compreensão insuficiente das tecnologias de IA por parte da diretoria para uma supervisão estratégica eficaz.

A APRA enfatizou que os conselhos devem desenvolver uma compreensão mais profunda da IA Estabelecer uma estratégia coerente e mecanismos de supervisão. O regulador enfatizou que a estratégia de IA deve estar alinhada com o apetite institucional ao risco e incorporar protocolos de monitoramento robustos e procedimentos de resposta a erros claramente definidos.

💼 Panorama atual da implementação de IA

A APRA observou que as entidades reguladas estão ativamente testando ou implementando IA em diversas áreas operacionais, incluindo:

  • Engenharia de software e aceleração do desenvolvimento
  • Triagem de reclamações e otimização de processamento
  • Processamento de pedidos de empréstimo e subscrição
  • Interrupção de fraudes e golpes sistemas
  • Interação com o cliente e melhoria do serviço

Uma descoberta preocupante foi que algumas entidades estavam tratando Os riscos da IA ​​são equivalentes aos riscos das tecnologias tradicionais.Uma abordagem que não leva em consideração desafios únicos, como a imprevisibilidade do comportamento do modelo e o viés algorítmico.

🔍 Lacunas identificadas na gestão de riscos

A revisão identificou lacunas operacionais significativas em diversas áreas críticas:

• Monitoramento do comportamento do modelo: Monitoramento insuficiente em tempo real do desempenho e dos padrões de decisão do sistema de IA.

• Gestão de Mudanças: Processos inadequados para atualizações e modificações do sistema de IA

• Procedimentos de desativação: Falta de abordagens estruturadas para a desativação de sistemas de IA

• Inventários de ferramentas de IA: Catalogação incompleta das instâncias de IA implantadas

• Responsabilidade de propriedade: Atribuição pouco clara de responsabilidades para implementações individuais de IA

A APRA enfatizou particularmente o requisito fundamental para o envolvimento humano em processos de tomada de decisão de alto risco que envolvem sistemas de IA.

🔐 Desafios de cibersegurança e gestão de acessos

A cibersegurança surgiu como uma principal área de preocupação regulatóriaA APRA observou que a adoção da IA ​​está transformando fundamentalmente o cenário de ameaças, introduzindo novos vetores de ataque, incluindo:

  • ataques de injeção rápida direcionando entradas de modelos de IA
  • Integrações inseguras entre sistemas de IA e infraestrutura existente
  • Vulnerabilidades em código gerado por IA

Uma descoberta particularmente preocupante foi que práticas de gerenciamento de identidade e acesso Não havia se adaptado adequadamente para acomodar elementos não humanos, como agentes de IA. Além disso, a proliferação do desenvolvimento de software assistido por IA estava exercendo uma pressão sem precedentes sobre os mecanismos de controle de mudanças e lançamentos.

A APRA determinou que as entidades implementassem controles robustos em fluxos de trabalho com agentes e autônomos, incluindo gerenciamento de acesso privilegiado, supervisão de configuração e protocolos sistemáticos de aplicação de patches. Os testes de segurança de código gerado por IA também foram identificados como essenciais.

🔗 Riscos de Dependência de Fornecedores

A análise revelou níveis preocupantes de concentração de fornecedoresCom algumas instituições tornando-se dependentes de um único fornecedor para múltiplas instâncias de IA, alarmantemente, apenas um pequeno número de entidades conseguiu demonstrar planos de saída viáveis ​​ou estratégias de substituição para fornecedores de IA.

A APRA destacou que A IA pode ser incorporada em dependências a montante., potencialmente sem que a entidade tenha conhecimento, criando riscos operacionais e estratégicos ocultos.

🌐 Resposta da Indústria: Novos Padrões de Autenticação

O foco nos controles de identidade e permissão está sendo abordado por meio do desenvolvimento de novos padrões pela Aliança FIDOA organização estabeleceu um Grupo de Trabalho Técnico de Autenticação Agentica Desenvolver especificações para o comércio iniciado por agentes.

A FIDO observou que os modelos de autenticação e autorização existentes foram projetados principalmente para interação humana, não para... ações delegadas executadas por software autônomoOs prestadores de serviços necessitam de novas metodologias para verificar quem ou o quê autoriza as ações e sob quais condições.

Entre as soluções de fornecedores notáveis ​​em análise pela FIDO, incluem-se:

  • Protocolo de Pagamentos para Agentes do Google
  • Estrutura de Intenção Verificável da Mastercard

📘 Desenvolvimento de Framework de Segurança

O Centro para Segurança na Internet, uma organização sem fins lucrativos financiada em grande parte pelo Departamento de Segurança Interna, publicou Guias complementares de segurança de IA que mapeiam o CIS Controls v8.1 para grandes modelos de linguagem, agentes de IA e ambientes do Protocolo de Contexto de Modelo.

Esses guias abrangentes abordam:

  • Guia para Mestrado em Direito (LLM): Aborda vulnerabilidades de injeção imediata e questões sensíveis de proteção de dados.
  • Guia MCP: Foca-se no acesso seguro por meio de ferramentas de software, identidades não humanas e interações em rede.

(Foto de Julien Tromeur)

📚 Oportunidades de Aprendizagem Adicionais

Para profissionais que buscam aprofundar seus conhecimentos em IA e big data com líderes do setor, o Exposição de IA e Big Data Oferece informações abrangentes. Este evento acontece em Amsterdã, Califórnia e Londres, e faz parte de TechEx, realizada em conjunto com outras importantes conferências de tecnologia, incluindo a Exposição de Segurança Cibernética e NuvemClique aqui Para obter mais informações.

O AI News é alimentado por TechForge MediaExplore outros eventos e webinars sobre tecnologia empresarial que estão por vir. aqui.

Mais de 300 modelos de IA para
OpenClaw e Agentes de IA

Economize 20% nos custos