Actualités en vedette

Le Trésor américain publie un guide complet sur les risques liés à l'IA à destination des institutions financières afin de renforcer la sécurité.

18 mars 2026 par l'AICC

Le Trésor américain a publié une collection de documents clés Adaptées au secteur des services financiers américains. Elles décrivent un approche structurée de la gestion des risques liés à l'IA tant au niveau des opérations que des politiques (voir la sous-rubrique « Ressources et téléchargements » (vers le bas de la page liée). L'élément central est le Cadre de gestion des risques liés à l'IA dans les services financiers (FS AI RMF), accompagné d'une description détaillée GuideCe cadre est le fruit d'une collaboration entre plus de 100 institutions financières, organismes de réglementation et experts techniques, visant à aider les entreprises à identifier, évaluer, gérer et encadrer les risques liés à l'IA tout en promouvant une adoption responsable de l'IA.

Gestion des risques liés à l'IA spécifique au secteur est crucial car les cadres de gouvernance traditionnels ne traitent pas pleinement des problèmes tels que biais algorithmique, transparence limitée dans la prise de décision par l'IA, vulnérabilités en matière de cybersécurité, et interdépendances complexes entre les systèmes et les données. Plus particulièrement, les grands modèles de langage (LLM) suscitent des inquiétudes en raison de leur sortie imprévisible et dépendante du contexte.

Bien que les réglementations existantes et les cadres généraux de gestion des risques liés à l'IA, tels que Cadre de gestion des risques liés à l'IA du NIST Bien qu'elles offrent des orientations générales, elles manquent du niveau de détail nécessaire aux institutions financières confrontées à des défis sectoriels et à des exigences réglementaires spécifiques. Le FS AI RMF étend les travaux du NIST avec contrôles pratiques et des conseils de mise en œuvre personnalisés.

Composantes essentielles du FS AI RMF

Ce cadre intègre la gouvernance de l'IA aux processus de gouvernance, de gestion des risques et de conformité (GRC) existants au sein des institutions financières. Il comprend :

  • AI adoption stage questionnaire: Évalue le niveau de maturité actuel de l'IA au sein d'une organisation.
  • Matrice des risques et des contrôles : Définit les énoncés de risques et les objectifs de contrôle alignés sur les étapes d'adoption.
  • Guide: Instructions détaillées pour l'application du cadre.
  • Guide de référence des objectifs de contrôle : Fournit des exemples de contrôles et de preuves pour démontrer la conformité.

Le cadre définit 230 objectifs de contrôle regroupées sous quatre fonctions adaptées du NIST : gouverner, carte, mesure, et gérerChaque fonction comprend des catégories et des sous-catégories décrivant les éléments efficaces de gestion des risques liés à l'IA.

Évaluation des stades de maturité de l'IA

Le questionnaire d'adoption aide les entreprises à identifier leur niveau de déploiement de l'IA, qui peut varier considérablement :

  • Étape initiale : Déploiement opérationnel de l'IA limité, voire inexistant, la plupart des opérations étant à l'étude.
  • Étape minimale : Utilisation limitée de l'IA dans des applications à faible risque ou isolées.
  • Stade évolutif : Déploiement de systèmes d'IA plus complexes affectant des données sensibles ou impliquant des services externes.
  • Scène intégrée : L'IA joue un rôle important dans les processus et décisions clés des entreprises.

Ce mode de classification des entreprises leur permet de concentrer les contrôles sur les aspects pertinents à leur niveau de maturité : les institutions en phase de démarrage n’ont pas besoin de contrôles complets immédiatement, mais à mesure que l’utilisation de l’IA se développe, le cadre ajoute des garanties supplémentaires pour faire face à l’augmentation des risques.

Contrôles des risques et gouvernance

Les objectifs de contrôle couvrent les domaines de la gouvernance et des opérations, tels que :

  • Gestion de la qualité des données
  • Surveillance de l'équité et des préjugés
  • Contrôles de cybersécurité
  • Transparence des processus de décision de l'IA
  • résilience opérationnelle

Le Guide propose des exemples de contrôles et de preuves pour faciliter la conformité, mais chaque établissement doit adapter les contrôles à son contexte unique.

De plus, le cadre recommande plans de réponse aux incidents d'IA dédiés et le maintien d'un référentiel centralisé d'incidents d'IA pour suivre les défaillances, faciliter leur détection et améliorer la gouvernance en continu.

Principes pour une IA digne de confiance

Le FS AI RMF intègre des principes fondamentaux, notamment validité, fiabilité, sûreté, sécurité, responsabilité, transparence, explicabilité, protection de la vie privée et équitéCes principes guident l'évaluation tout au long du cycle de vie de l'IA afin de garantir la fiabilité des résultats, la résilience des systèmes face aux cybermenaces et l'explicabilité des décisions, notamment en cas d'impact réglementaire ou sur les clients.

Orientations stratégiques pour les dirigeants

Pour les dirigeants d'institutions financières du monde entier, le FS AI RMF propose une feuille de route pour intégrer la gouvernance de l'IA aux processus de gestion des risques existants. Il met l'accent sur une coordination étroite entre les équipes techniques, les responsables des risques, les spécialistes de la conformité et les unités opérationnelles afin de gouverner efficacement l'IA.

L’adoption de l’IA sans gouvernance solide risque d’entraîner des perturbations opérationnelles, des sanctions réglementaires et une atteinte à la réputation. À l’inverse, les entreprises qui mettent en œuvre des cadres de gouvernance clairs et évolutifs renforceront la confiance dans le déploiement de l’IA.

Le guide présente la gestion des risques liés à l'IA comme une pratique dynamique, évoluant au rythme des progrès technologiques et de l'évolution du cadre réglementaire. Les institutions doivent actualiser en permanence leur gouvernance et leurs évaluations des risques.

Point clé à retenir : L’adoption de l’IA et la gouvernance des risques doivent progresser de concert. Le cadre de gestion des risques liés à l’IA du secteur financier (FS AI RMF) fournit un langage et structure communs gérer de manière responsable les risques évolutifs liés à l'IA.

(Source de l'image : « Law Books » de seychelles88 est sous licence CC BY-NC-SA 2.0.)


Intéressé(e) par l'apprentissage auprès des leaders de l'industrie de l'IA et du big data ?

Découvrez le Salon de l'IA et du Big Data des événements organisés à Amsterdam, en Californie et à Londres. Cette conférence exhaustive fait partie de TechEx et se déroule en même temps que d'autres salons technologiques de premier plan. Pour plus de détails, veuillez cliquer ici.

AI News est alimenté par TechForge MediaDécouvrez les prochains événements et webinaires sur les technologies d'entreprise. ici.

Plus de 300 modèles d'IA pour
OpenClaw et agents IA

Économisez 20 % sur vos coûts