Exécution en environnement sandbox du SDK OpenAI Agents pour une meilleure gouvernance et sécurité de l'IA

OpenAI introduit l'exécution en bac à sable Cette mise à jour majeure permet aux équipes de gouvernance d'entreprise de déployer des flux de travail automatisés avec un risque maîtrisé. Elle répond aux défis persistants liés au passage des systèmes d'IA du prototype à la production.
🔧 Surmonter les défis architecturaux liés au déploiement de l'IA
Les équipes chargées de faire passer les systèmes du prototype à la production ont dû faire face à des compromis architecturaux difficiles concernant l'emplacement de leurs opérations. L'utilisation de cadres indépendants du modèle a offert une flexibilité initiale, mais n'a pas permis d'exploiter pleinement les capacités des modèles de pointe. Les SDK des fournisseurs de modèles restaient plus proches du modèle sous-jacent, mais manquaient souvent de visibilité suffisante sur le système de contrôle.
Pour compliquer encore les choses, les API d'agents gérés ont simplifié le processus de déploiement, mais ont fortement limité les environnements d'exécution des systèmes et leur accès aux données sensibles de l'entreprise. Pour résoudre ce problème, OpenAI introduit de nouvelles fonctionnalités dans son SDK Agents., offrant aux développeurs une infrastructure standardisée dotée d'un cadre d'exécution natif du modèle et d'une exécution native en environnement isolé.
🏥 Application concrète : Étude de cas Oscar Health
L'infrastructure mise à jour aligne l'exécution sur le mode de fonctionnement naturel des modèles sous-jacents, améliorant ainsi la fiabilité lorsque les tâches nécessitent une coordination entre différents systèmes. Oscar Health fournit un exemple de cette efficacité concernant les données non structurées.
Le prestataire de soins a testé la nouvelle infrastructure afin d'automatiser un flux de travail de dossiers cliniques que les méthodes précédentes ne permettaient pas de gérer de manière fiable. L'équipe d'ingénierie a exigé que le système automatisé extraie les métadonnées correctes tout en identifiant correctement les limites des consultations des patients au sein de dossiers médicaux complexes. Grâce à cette automatisation, le prestataire a pu analyser plus rapidement les antécédents des patients, accélérant ainsi la coordination des soins et améliorant l'expérience globale des patients.
Rachael Burns, ingénieure et responsable technique en IA chez Oscar Health, a déclaré : « La mise à jour du SDK Agents nous a permis d'automatiser en production un flux de travail essentiel de gestion des dossiers cliniques, ce que les approches précédentes ne permettaient pas de faire avec suffisamment de fiabilité. Pour nous, la différence résidait non seulement dans l'extraction des métadonnées pertinentes, mais aussi dans la compréhension précise des limites de chaque interaction au sein de dossiers longs et complexes. Par conséquent, nous pouvons comprendre plus rapidement ce qui se passe pour chaque patient lors d'une visite donnée, ce qui nous permet d'aider nos membres à répondre à leurs besoins de soins et d'améliorer leur expérience avec nous. »
⚙️ Le modèle natif optimise les flux de travail d'IA
Pour déployer ces systèmes, les ingénieurs doivent gérer la synchronisation des bases de données vectorielles, maîtriser les risques d'hallucinations et optimiser les ressources de calcul coûteuses. En l'absence de cadres de référence standardisés, les équipes internes ont souvent recours à la création de connecteurs personnalisés fragiles pour gérer ces flux de travail.
Le nouveau harnais natif du modèle contribue à atténuer cette friction en introduisant une mémoire configurable, une orchestration compatible avec les environnements sandbox et des outils de système de fichiers de type Codex. Les développeurs peuvent intégrer des primitives standardisées telles que :
- 📌 Utilisation de l'outil via MCP
- 📌 Instructions personnalisées via AGENTS.md
- 📌 Modifications de fichiers à l'aide de l'outil Appliquer un correctif
- 📌 Divulgation progressive par les compétences
- 📌 Exécution de code à l'aide de l'outil shell
Cette standardisation permet aux équipes d'ingénierie de consacrer moins de temps à la mise à jour de l'infrastructure de base et de se concentrer sur la création d'une logique spécifique au domaine qui profite directement à l'entreprise.
🗂️ Abstraction du manifeste pour l'intégration d'entreprise
L'intégration d'un programme autonome dans une infrastructure technologique existante exige un routage précis. Lorsqu'un processus autonome accède à des données non structurées, il dépend fortement des systèmes de récupération pour extraire le contexte pertinent.
Pour gérer l'intégration d'architectures diverses et limiter le périmètre opérationnel, Le SDK introduit une abstraction Manifeste. Cette abstraction standardise la manière dont les développeurs décrivent l'espace de travail, leur permettant de monter des fichiers locaux et de définir des répertoires de sortie.
Les équipes peuvent connecter ces environnements directement aux principaux fournisseurs de stockage d'entreprise, notamment :
- ☁️ AWS S3
- ☁️ Stockage Blob Azure
- ☁️ Stockage cloud Google
- ☁️ Cloudflare R2
L'établissement d'un espace de travail prévisible fournit au modèle des paramètres précis quant à l'emplacement des entrées, l'écriture des sorties et le maintien de l'organisation lors d'exécutions opérationnelles prolongées. Cette prévisibilité empêche le système d'interroger des lacs de données non filtrés, le limitant ainsi à des fenêtres de contexte spécifiques et validées.
🔒 Sécurité renforcée grâce à l'exécution native en sandbox
Le SDK prend en charge nativement l'exécution en sandbox.Cette solution offre une couche d'exécution prête à l'emploi permettant aux programmes de s'exécuter dans des environnements informatiques contrôlés contenant les fichiers et dépendances nécessaires. Les équipes d'ingénierie n'ont plus besoin de concevoir manuellement cette couche d'exécution.
Ils peuvent déployer leurs propres environnements de test personnalisés ou utiliser la prise en charge intégrée de fournisseurs tels que Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop et Vercel.
🛡️ Architecture de sécurité et d'atténuation des risques
La gestion des risques demeure la priorité absolue pour toute entreprise déployant un système d'exécution de code autonome. Les équipes de sécurité doivent partir du principe que tout système lisant des données externes ou exécutant du code généré sera exposé à des attaques par injection de requêtes et à des tentatives d'exfiltration.
OpenAI répond à cette exigence de sécurité en séparant le système de contrôle de la couche de calcul. Cette séparation isole les informations d'identification, les maintenant totalement à l'écart des environnements où s'exécute le code généré par le modèle. En isolant la couche d'exécution, Une commande malveillante injectée ne peut pas accéder au plan de contrôle central ni voler les clés API principales., protégeant ainsi le réseau d'entreprise étendu contre les attaques par déplacement latéral.
💰 Optimisation des coûts grâce à la prise de clichés
Cette séparation permet également de résoudre les problèmes de coût de calcul liés aux pannes système. Les tâches de longue durée échouent souvent en cours de route en raison de délais d'attente réseau, de plantages de conteneurs ou de limites d'API. Si un agent complexe effectue vingt étapes pour compiler un rapport financier et échoue à la dix-neuvième étape, la réexécution de la séquence complète mobilise des ressources de calcul coûteuses.
En cas de défaillance de l'environnement sous la nouvelle architecture, la perte du conteneur sandbox ne signifie pas la perte de l'ensemble du système opérationnel. Étant donné que l'état du système reste externalisé, le SDK utilise des mécanismes intégrés de capture d'instantanés et de réhydratation. L'infrastructure peut restaurer l'état dans un nouveau conteneur et reprendre exactement à partir du dernier point de contrôle si l'environnement d'origine expire ou tombe en panne. Éviter de devoir redémarrer des processus coûteux et de longue durée se traduit directement par une réduction des dépenses liées au calcul dans le cloud.
📈 Mise à l'échelle dynamique et allocation des ressources
La mise à l'échelle de ces opérations nécessite une allocation dynamique des ressources. L'architecture séparée permet aux exécutions de :
- 🔹 Lancer un ou plusieurs environnements de test en fonction de la charge actuelle
- 🔹 Acheminer des sous-agents spécifiques vers des environnements isolés
- 🔹 Parallélisez les tâches sur plusieurs conteneurs pour des temps d'exécution plus rapides
🚀 Disponibilité et feuille de route future
Ces nouvelles fonctionnalités sont généralement accessibles à tous les clients via l'API.Cette solution utilise une tarification standard basée sur les jetons et l'utilisation de l'outil, sans exiger de contrats d'achat personnalisés. Les nouvelles fonctionnalités de l'environnement de test et du bac à sable sont d'abord lancées pour les développeurs Python ; la prise en charge de TypeScript est prévue pour une version ultérieure.
OpenAI prévoit d'ajouter des fonctionnalités supplémentaires, notamment mode de code et sous-agentsLe kit de développement logiciel (SDK) est compatible avec les bibliothèques Python et TypeScript. Le fournisseur prévoit d'étendre progressivement cet écosystème en prenant en charge d'autres fournisseurs d'environnements de test et en proposant davantage de méthodes permettant aux développeurs d'intégrer directement le SDK à leurs systèmes internes existants.


Se connecter









