Notícias em destaque

Execução em ambiente de teste (sandbox) do SDK de agentes da OpenAI para melhor governança e segurança da IA.

2026-04-18 por AICC
SDK de Agentes OpenAI

A OpenAI está introduzindo a execução em sandbox. Isso permite que as equipes de governança corporativa implementem fluxos de trabalho automatizados com risco controlado. Essa importante atualização aborda desafios antigos na transição de sistemas de IA de protótipos para ambientes de produção.

🔧 Superando os desafios arquitetônicos na implementação de IA

As equipes que levam sistemas do protótipo à produção enfrentam difíceis compromissos arquitetônicos em relação a onde suas operações ocorrem. A utilização de estruturas agnósticas ao modelo ofereceu flexibilidade inicial, mas não conseguiu aproveitar totalmente as capacidades dos modelos de fronteira. Os SDKs de provedores de modelos permaneceram mais próximos do modelo subjacente, mas frequentemente careciam de visibilidade suficiente sobre a estrutura de controle.

Para complicar ainda mais as coisas, as APIs de agentes gerenciados simplificaram o processo de implantação, mas restringiram severamente onde os sistemas podiam ser executados e como acessavam dados corporativos confidenciais. Para resolver isso, A OpenAI está introduzindo novos recursos ao SDK de Agentes., oferecendo aos desenvolvedores uma infraestrutura padronizada com um recurso nativo do modelo e execução nativa em ambiente de teste.

🏥 Aplicação prática: Estudo de caso da Oscar Health

A infraestrutura atualizada alinha a execução com o padrão operacional natural dos modelos subjacentes, melhorando a confiabilidade quando as tarefas exigem coordenação entre diversos sistemas. A Oscar Health fornece um exemplo dessa eficiência no tratamento de dados não estruturados.

O provedor de serviços de saúde testou a nova infraestrutura para automatizar um fluxo de trabalho de registros clínicos que as abordagens anteriores não conseguiam processar de forma confiável. A equipe de engenharia precisava que o sistema automatizado extraísse os metadados corretos e, ao mesmo tempo, compreendesse adequadamente os limites dos atendimentos aos pacientes em prontuários médicos complexos. Ao automatizar esse processo, o provedor conseguiu analisar os históricos dos pacientes mais rapidamente, agilizando a coordenação do atendimento e melhorando a experiência geral do paciente.

Rachael Burns, Engenheira de Equipe e Líder Técnica de IA na Oscar Health, disse: "O SDK de Agentes atualizado tornou viável para nós a automação de um fluxo de trabalho crítico de registros clínicos, algo que as abordagens anteriores não conseguiam lidar de forma confiável. Para nós, a diferença não estava apenas em extrair os metadados corretos, mas em compreender adequadamente os limites de cada atendimento em registros longos e complexos. Como resultado, podemos entender mais rapidamente o que está acontecendo com cada paciente em uma determinada consulta, auxiliando os membros com suas necessidades de atendimento e melhorando sua experiência conosco."

⚙️ O Model-Native Harness otimiza os fluxos de trabalho de IA

Para implantar esses sistemas, os engenheiros precisam gerenciar a sincronização de bancos de dados vetoriais, controlar os riscos de alucinações e otimizar os custos computacionais. Sem frameworks padronizados, as equipes internas frequentemente recorrem à criação de conectores personalizados frágeis para gerenciar esses fluxos de trabalho.

O novo chicote elétrico, nativo do modelo, ajuda a aliviar esse atrito. Ao introduzir memória configurável, orquestração com reconhecimento de sandbox e ferramentas de sistema de arquivos semelhantes ao Codex, os desenvolvedores podem integrar primitivas padronizadas, tais como:

  • 📌 Utilização da ferramenta via MCP
  • 📌 Instruções personalizadas via AGENTS.md
  • 📌 Edições de arquivos usando a ferramenta de aplicação de patches
  • 📌 Divulgação progressiva por meio de habilidades
  • 📌 Execução de código usando a ferramenta shell

Essa padronização permite que as equipes de engenharia dediquem menos tempo à atualização da infraestrutura principal e se concentrem na criação de lógica específica do domínio, que beneficia diretamente o negócio.

🗂️ Abstração de Manifesto para Integração Empresarial

A integração de um programa autônomo em uma infraestrutura tecnológica legada exige roteamento preciso. Quando um processo autônomo acessa dados não estruturados, ele depende fortemente de sistemas de recuperação para obter o contexto relevante.

Para gerenciar a integração de diversas arquiteturas e limitar o escopo operacional, O SDK introduz uma abstração de Manifesto. Essa abstração padroniza a forma como os desenvolvedores descrevem o espaço de trabalho, permitindo que eles montem arquivos locais e definam diretórios de saída.

As equipes podem conectar esses ambientes diretamente aos principais provedores de armazenamento corporativo, incluindo:

  • ☁️ AWS S3
  • ☁️ Armazenamento de Blobs do Azure
  • ☁️ Armazenamento em nuvem do Google
  • ☁️ Cloudflare R2

Estabelecer um espaço de trabalho previsível fornece ao modelo parâmetros exatos sobre onde localizar entradas, gravar saídas e manter a organização durante execuções operacionais prolongadas. Essa previsibilidade impede que o sistema consulte data lakes não filtrados, restringindo-o a janelas de contexto específicas e validadas.

🔒 Segurança aprimorada com execução nativa em sandbox

O SDK oferece suporte nativo à execução em sandbox., oferecendo uma camada pronta para uso que permite que os programas sejam executados em ambientes de computador controlados, contendo os arquivos e dependências necessários. As equipes de engenharia não precisam mais montar essa camada de execução manualmente.

Eles podem implantar seus próprios ambientes de teste personalizados ou utilizar o suporte integrado para provedores como Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop e Vercel.

🛡️ Mitigação de Riscos e Arquitetura de Segurança

A mitigação de riscos continua sendo a principal preocupação de qualquer empresa que implemente a execução autônoma de código. As equipes de segurança devem partir do princípio de que qualquer sistema que leia dados externos ou execute código gerado estará sujeito a ataques de injeção de código e tentativas de exfiltração de dados.

A OpenAI aborda esse requisito de segurança separando a estrutura de controle da camada de computação. Essa separação isola as credenciais, mantendo-as completamente fora dos ambientes onde o código gerado pelo modelo é executado. Ao isolar a camada de execução, Um comando malicioso injetado não pode acessar o plano de controle central nem roubar chaves de API primárias., protegendo a rede corporativa mais ampla contra ataques de movimentação lateral.

💰 Otimização de custos por meio de captura de instantâneos

Essa separação também resolve problemas de custo computacional relacionados a falhas do sistema. Tarefas de longa duração frequentemente falham no meio do processo devido a timeouts de rede, falhas de contêineres ou limites de API. Se um agente complexo leva vinte etapas para compilar um relatório financeiro e falha na décima nona etapa, executar novamente toda a sequência consome recursos computacionais dispendiosos.

Se o ambiente falhar sob a nova arquitetura, perder o contêiner sandbox não significa perder toda a operação. Como o estado do sistema permanece externo, o SDK utiliza recursos integrados de captura de instantâneos e reidratação. A infraestrutura pode restaurar o estado em um novo contêiner e retomar exatamente do último ponto de verificação caso o ambiente original expire ou falhe. Evitar a necessidade de reiniciar processos dispendiosos e demorados traduz-se diretamente numa redução das despesas com computação na nuvem.

📈 Escalabilidade dinâmica e alocação de recursos

A escalabilidade dessas operações exige alocação dinâmica de recursos. A arquitetura separada permite que as execuções:

  • 🔹 Invoque uma ou várias sandboxes com base na carga atual
  • 🔹 Direcione subagentes específicos para ambientes isolados
  • 🔹 Paralelize tarefas em vários contêineres para tempos de execução mais rápidos.

🚀 Disponibilidade e roteiro futuro

Essas novas funcionalidades estão geralmente disponíveis para todos os clientes por meio da API., utilizando preços padrão baseados em tokens e uso de ferramentas, sem a necessidade de contratos de aquisição personalizados. Os novos recursos de integração e ambiente de teste estão sendo lançados inicialmente para desenvolvedores Python, com suporte para TypeScript previsto para uma versão futura.

A OpenAI planeja adicionar recursos adicionais, incluindo modo de código e subagentes, tanto para as bibliotecas Python quanto TypeScript. O fornecedor pretende expandir o ecossistema ao longo do tempo, oferecendo suporte a mais provedores de sandbox e mais métodos para que os desenvolvedores integrem o SDK diretamente aos seus sistemas internos existentes.

Mais de 300 modelos de IA para
OpenClaw e Agentes de IA

Economize 20% nos custos