AI TRiSM est un acronyme de « AI Trust, Risk, and Security Management », ou gestion de la confiance, du risque et de la sécurité de l’IA. Il s’agit d’un framework de gouvernance responsable de l’intelligence artificielle en entreprise. Ce concept développé par Gartner vise à structurer la gouvernance, la surveillance et le contrôle des systèmes d’IA afin qu’ils fonctionnent de manière sûre, fiable et conforme aux politiques de l’entreprise et autres exigences réglementaires.
Le framework AI TRiSM définit une méthode unifiée pour gérer la confiance, le risque et la sécurité tout au long du cycle de vie de l’IA. Grâce à lui, les organisations peuvent mieux identifier les vulnérabilités potentielles, appliquer des mesures de protection contre l’utilisation abusive ou l’exposition de données, et assurer une supervision cohérente à mesure que les modèles évoluent.
Gartner définit l’AI TRiSM autour de cinq piliers fondamentaux qui, ensemble, régissent la manière dont les systèmes d’IA sont développés, déployés et pilotés dans les environnements d’entreprise. Parmi eux :
Explicabilité : les systèmes d’IA doivent produire des résultats que les humains peuvent examiner, comprendre et interroger. L’explicabilité vise à permettre aux équipes de sécurité, auditeurs, régulateurs et dirigeants d’entreprise d’interpréter les décisions du modèle. Cela permet d’analyser les causes profondes des problèmes et de renforcer la confiance dans les décisions prises par l’IA.
ModelOps : les opérations des modèles, ou ModelOps, régissent la manière dont les modèles sont déployés et contrôlés après leur mise en production, tout en prévoyant des processus de suppression. Le ModelOps comprend le suivi des performances, la détection des dérives de modèles, le contrôle des versions et les processus de retour arrière (rollback). Sans ModelOps, les organisations peinent à gérer les risques lorsque les modèles évoluent ou se dégradent au fil du temps.
Sécurité spécifique à l’IA : l’IA introduit de nouvelles surfaces d’attaque (modèles, données, API, infrastructure cloud et on-prem, prompts, agents et copilotes) qui dépassent le cadre de la sécurité traditionnelle des applications. Ce pilier vise à contrer les menaces de type prompt injection, empoisonnement de données, inversion ou vol de modèle. Les contrôles se concentrent sur la prévention des manipulations ou abus de modèles, entrées, sorties et intégrations.
Confidentialité : la manière dont les données sont collectées, traitées, stockées et réutilisées au cours de l’entraînement et de l’inférence de l’IA a un impact considérable sur la protection de la vie privée des clients. Des techniques telles que l’anonymisation, la minimisation et la confidentialité différentielle permettent de réduire l’exposition des données sensibles ou personnelles. Les manquements à la protection de la vie privée se traduisent souvent directement par des risques juridiques et réputationnels.
Conformité réglementaire : comme tous les systèmes de production, les modèles d’IA doivent se conformer à des réglementations comme le RGPD, l’HIPAA et les nouvelles lois spécifiques à l’IA. Ce pilier se concentre sur l’application des politiques, la documentation, l’auditabilité et la collecte de preuves. Les exigences de conformité déterminent de plus en plus les modes et les lieux de déploiement de l’IA.
La meilleure façon d’implémenter un framework AI TRiSM est de procéder par étapes, en s’appuyant sur les processus de sécurité, de gouvernance et de gestion des données déjà en place, plutôt que de les remplacer purement et simplement. Voici cinq façons d’intégrer les bonnes pratiques AI TRiSM au sein de votre organisation :
Auditer les actifs d’IA actuels : commencez par inventorier tous les modèles et agents d’IA utilisés, y compris les systèmes tiers et intégrés. Documentez les scénarios d’utilisation, les responsables des modèles côté métiers et les sources de données d’entraînement ou d’inférence. Cette visibilité constitue la base de la gouvernance et de l’évaluation des risques.
Établir un cadre de gouvernance : la gouvernance assure stabilité et cohérence à mesure que l’utilisation de l’IA se généralise dans les équipes. Définissez clairement les domaines de responsabilité en matière de développement, de déploiement et de surveillance continue des modèles. En parallèle, établissez des politiques d’usage acceptable, de traitement des données, de mise à jour des modèles et de gestion des exceptions.
Évaluer les risques : évaluez les points d’exposition tout au long du cycle de vie de l’IA – de l’ingestion des données aux intégrations en aval, en passant par l’entraînement et l’inférence des modèles. Évaluez les risques liés aux fuites de données, aux biais, à la dérive des modèles et à leur utilisation abusive. Ces évaluations doivent être effectuées à intervalles réguliers, à mesure que les modèles et les cas d’usage évoluent.
Surveiller et contrôler : monitorez le comportement des modèles, des agents IA et des intégrations pour détecter les anomalies ou les violations des politiques. Appliquez des politiques de gestion des identités et des accès (IAM) pour les agents, validez les entrées et surveillez les résultats en sortie. Ce monitoring permet d’identifier rapidement les problèmes.
Intégrer la sécurité des données : soumettez vos données sensibles à des contrôles d’accès stricts et à un chiffrement fort au repos (stockage) et lors de l’entraînement et de l’inférence des modèles. En découvrant et en étiquetant vos données sensibles, vous réduisez la probabilité d’exposition d’informations réglementées ou de propriété intellectuelle par vos modèles IA.
L’AI TRiSM est appliquée différemment d’un secteur à l’autre, mais l’objectif sous-jacent reste le même : réduire les risques tout en maintenant la confiance, la sécurité et la responsabilité. Le tableau 1 ci-dessous résume les cas d’usage courants, le principal risque visé dans chacun d’eux et les composants AI TRiSM les plus directement concernés.
Tableau 1. Cas d’usage types de l’AI TRiSM
Secteur | Cas d’usage | Comment l’AI TRiSM atténue le risque | Élément AI TRiSM concerné |
Santé | Diagnostics et outils décisionnels médicaux assistés par l’IA | Applique la gouvernance des données, les contrôles d’accès et la surveillance pour limiter l’exposition d’informations de santé protégées pendant l’entraînement et l’inférence des modèles, tout en maintenant des pistes d’audit à des fins médicales et réglementaires. | Confidentialité, conformité réglementaire |
Finance | Modèles d’évaluation du risque de crédit et d’approbation des prêts | Les modèles doivent être explicables et la logique décisionnelle doit être contrôlée en permanence afin de vérifier qu’elle n’est pas biaisée et de la corriger lorsque les modèles dérivent ou que les réglementations changent. | Explicabilité, ModelOps, conformité |
Retail | Comportement des clients et modèles de recommandation | Sécurise les données d’entraînement, les modèles et les sorties afin de réduire le risque de fuite de données, de vol de modèle ou de manipulation par un accès non autorisé ou des entrées malveillantes. | Sécurité et confidentialité spécifiques à l’IA |
Pouvoirs publics | Services publics et systèmes décisionnels pilotés par IA | Assure la transparence, la documentation et les contrôles indispensables au maintien de la responsabilité, de la confiance du public et du respect des exigences réglementaires et d’attribution des marchés. | Explicabilité, conformité |
Dans l’ensemble de ces secteurs, un framework AI TRiSM peut fournir une structure cohérente pour traiter les risques spécifiques tout en soutenant une adoption évolutive et responsable de l’IA.
L’AI TRiSM est essentiel pour les organisations qui développent et déploient des systèmes d’IA à grande échelle, en particulier dans les environnements réglementés et traitant de grands volumes de données, pour lesquels la confiance, la sécurité et la responsabilité sont importantes. Alors que l’adoption de l’IA s’accélère, la gestion des risques doit être intégrée dans la manière dont les modèles sont développés, déployés et contrôlés.
La protection et la gouvernance des données jouent un rôle central dans la mise en œuvre de l’AI TRiSM. C’est pourquoi les capacités de sécurité et de gouvernance des données de Rubrik s’étendent aux opérations d’IA sur plusieurs tableaux : protection des données sensibles, amélioration de la visibilité sur les risques et respect des exigences d’audit et de conformité tout au long du cycle de vie de l’IA.
Pour les organisations qui cherchent à pérenniser leurs initiatives d’IA et à opérationnaliser l’AI TRiSM, combiner sécurité des données et gouvernance de l’IA est une prochaine étape essentielle. Pour découvrir comment Rubrik peut accompagner votre adoption sécurisée et responsable de l’IA, contactez l’équipe Rubrik.