L’IA transforme la sécurité en entreprise. Détection plus rapide, réponse automatisée, surveillance scalable dans les environnements hybrides… ses avantages sont nombreux. Seulement voilà, les systèmes autonomes ne sont pas infaillibles. Ils peuvent se tromper dans leur classement, faire des erreurs de configuration ou provoquer eux-mêmes des pannes. Découvrez comment mettre en place des stratégies de surveillance, de rollback et de restauration pour garantir la résilience de votre entreprise contre les attaquants et les erreurs de l’IA, et exploiter ainsi le potentiel de l’intelligence artificielle en toute sérénité.
L’intelligence artificielle transforme rapidement la cybersécurité. Les entreprises s’appuient sur l’IA pour faire face à l’évolution des menaces. Les modèles de machine learning peuvent par exemple repérer les anomalies dans les données de journaux. Quant aux outils d’IA générative, ils rédigent automatiquement les playbooks à activer en cas d’incident. En effet, grâce à sa rapidité et à son rayon d’action, l’IA peut détecter les attaques plus vite que n’importe quel analyste humain.
Revers de la médaille, elle introduit aussi des défis qui lui sont propres. Les systèmes automatisés peuvent signaler à tort des activités bénignes, appliquer des politiques erronées à grande échelle, voire déclencher eux-mêmes des incidents.
À l’heure où les entreprises se tournent de plus en plus vers les solutions d’IA pour défendre leurs environnements, elles doivent aussi prévoir des stratégies de supervision, de contrôle et de restauration au cas où ces outils puissants s’écartent du droit chemin. Les sections suivantes explorent les deux aspects de cette transformation : les progrès en matière de détection et le besoin urgent de résilience lorsque l’IA devient elle-même un problème.
L’un des principaux avantages de l’IA est sa capacité à ingérer des jeux massifs de données multi-sources pour établir des baselines comportementales aussi bien pour les utilisateurs que pour les systèmes. Dans le domaine de la cybersécurité, ces datasets comprennent de nombreux éléments : flux de journaux, snapshots de sauvegarde, comportements des fichiers utilisateurs, changements de configuration, etc. L’IA utilise la reconnaissance des schémas et l’analyse du comportement des utilisateurs et des entités (UEBA) pour repérer les éléments qui s’écartent de la norme. Ce processus peut ainsi révéler des vulnérabilités telles que des exploits zero-day, des menaces persistantes avancées ou des menaces internes.
Plusieurs approches de machine learning sont utilisées dans le domaine de la cybersécurité :
Apprentissage supervisé – On présente aux outils des activités malveillantes et bénignes étiquetées pour les entraîner à les reconnaître. Cette méthode est particulièrement efficace pour apprendre à identifier les menaces connues.
Apprentissage non supervisé – Les outils détectent les anomalies statistiques qui n’apparaissent pas dans les jeux de données d’entraînement (idéal pour les exploits zero-day ou les menaces furtives internes).
Apprentissage par renforcement – Les outils apprennent à trouver les meilleures réponses grâce à des cycles d’essais/de récompenses. Ils peuvent ainsi s’adapter aux environnements changeants.
Ces techniques existent depuis des années, et contribuent à alimenter les plateformes InfoSec, offrant des avantages concrets. Par exemple, l’IA permet de détecter rapidement les ransomwares grâce à l’analyse des comportements anormaux. Elle facilite également l’identification du phishing grâce à l’analyse NLP (traitement du langage naturel) sur les e-mails suspects et à la classification des malwares via le deep learning, une approche qui permet de distinguer plus précisément les fichiers binaires inoffensifs des fichiers binaires malveillants. Toutes ces techniques se combinent pour améliorer le taux de détection, réduire le nombre de faux positifs et accélérer l’endiguement des menaces.
L’essor fulgurant de l’IA générative a également introduit de nouvelles capacités. Ces outils peuvent automatiser la création de politiques, générer des playbooks de réponse à incident et permettre aux analystes d’investiguer les menaces de manière plus fluide. En modélisant le comportement des utilisateurs dans la durée, les outils de GenAI établissent des profils dynamiques qui facilitent la détection des pics anormaux d’activité ou des compromissions de compte.
Malgré tous ces avantages, l’IA générative peut aussi commettre des erreurs. Un générateur de playbook mal réglé pourrait par exemple imposer des règles de pare-feu erronées. Un modèle de compte mal conçu pourrait exclure les utilisateurs légitimes. Les agents IA hallucinent et se trompent en permanence. Ils pourraient notamment classer à tort des changements de routine comme anormaux ou, pire encore, propager une configuration erronée à tous les systèmes. Sans contrôles correctifs, les conséquences pourraient être désastreuses.
D’où l’importance d’une stratégie robuste de restauration post-incident. À mesure que l’automatisation de l’IA se généralise, les équipes de sécurité auront besoin 1) d’analyses forensiques pour retracer les erreurs de l’IA, 2) de traces d’audits relatives aux journaux pour déterminer ce qui a mal tourné et 3) d’un mécanisme de rollback sélectif pour rétablir les systèmes à un état antérieur sans porter atteinte à leur intégrité.
L’intelligence artificielle offre aux entreprises des avantages indéniables :
Détection plus rapide et plus précise des menaces avec une réduction des faux positifs
Sécurité automatisée 24 h/24
Analyse évolutive des journaux dans les systèmes cloud et on-prem
Réduction des coûts grâce à l’automatisation des tâches répétitives des analystes
En associant à l’IA des systèmes de contrôle, à des pistes d’audit et des mécanismes de restauration, les entreprises garantissent leur résilience, même lorsque les outils d’IA sont eux-mêmes à l’origine des erreurs. Bref, elles doivent assurer le bon équilibre entre autonomie et gouvernance à mesure qu’elles développent leur cas d’usage de l’IA.
Les équipes SOC (Security Operation Center) pilotent la réponse face aux compromissions et aux attaques en cours. Elles utilisent pour cela des techniques de cybersécurité qui ont fait leurs preuves. Elles isolent les terminaux compromis, bloquent l’accès aux données sensibles à partir des comptes présentant des comportements suspects et mettent à jour les pare-feu pour se prémunir des menaces zero-day, en fonction des dernières données CTI disponibles. En automatisant ce type de processus, les équipes SOC peuvent enfin atteindre l’objectif ultime : réduire le temps moyen de restauration (MTTR) de plusieurs heures à quelques minutes.
Mais au sein des entreprises, les stratégies de restauration suite aux erreurs causées par l’IA (appelées AI-MTTR) en sont encore au stade de développement.
L’IA peut s’intégrer aux outils SIEM, SOAR et XDR pour suivre en permanence les environnements. Mais une problématique subsiste : son incapacité à surveiller en temps réel les agents IA eux-mêmes. Or, sans supervision, une IA mal réglée pourrait désactiver des centaines de comptes ou faire des erreurs dans le classement de téraoctets de données. Les systèmes d’alerte en amont sont tout aussi importants que l’analyse prédictive des menaces externes. Ils permettent de signaler rapidement les erreurs dans les décisions des outils d’IA.
Les agents IA peuvent amplifier les risques. C’est le cas lorsqu’une erreur de logique ou une mauvaise saisie de données se répercute dans les systèmes de production. Il ne s’agit pas là d’un scénario hypothétique : un seul message erroné peut perturber les workflows à grande échelle. En juillet 2025, un agent IA a ainsi supprimé l’intégralité de la base de code d’une entreprise.
Lorsque les agents IA introduisent des dérives de configuration, se trompent dans l’application des politiques ou font s’effondrer les workflows, l’entreprise doit faire face à un tout autre problème qu’une attaque externe. Ces erreurs internes à l’entreprise ne sont plus le fait d’adversaires extérieurs. L’autonomie de l’IA aggrave les dommages car les problèmes peuvent se propager rapidement.
Pour distinguer les incidents liés à l’IA des cyberattaques malveillantes, il faut disposer de données forensiques fines. Sans ces informations, les équipes de sécurité risquent de confondre deux problèmes très différents. Les entreprises doivent savoir si elles sont attaquées ou si elles font face aux erreurs de leur propre intelligence artificielle.
À l’ère de l’IA, la restauration ne se limite plus à des sauvegardes. Les entreprises ont besoin d’audits en temps réel des décisions de l’IA, de rollbacks granulaires permettant d’annuler uniquement les changements nuisibles, d’évaluations d’impact solides pour calculer les dommages en aval et, surtout, d’une reprise rapide pour minimiser les temps d’arrêt coûteux. Ces capacités deviendront le fondement de la résilience à mesure que les entreprises intégreront davantage l’IA dans leurs activités quotidiennes. Les organisations qui réussiront seront celles qui traiteront la restauration pilotée par l’IA avec le même sérieux que la détection pilotée par l’IA.
Lorsque l’agent IA d’une organisation est lui-même à l’origine de l’incident (en supprimant des données, en reconfigurant les autorisations ou en propageant des changements erronés), les mesures et stratégies MTTR traditionnelles ne suffisent plus. Les processus conventionnels de sauvegarde et de restauration manquent souvent de suffisamment de précision pour annuler les actions pilotées par l’IA. Les entreprises ont besoin de méthodes de restauration spécialement conçues pour les erreurs de l’IA, avec une clarté forensique suffisante pour comprendre la cause et la portée de l’incident et des mécanismes de rollback pour annuler les changements involontaires avant que des perturbations en cascade ne se produisent.
Rubrik a comblé ces lacunes grâce à Agent Rewind. Cet outil enregistre les actions des agents IA, les relie à leurs prompts d’origine et permet un rollback sélectif. Les entreprises peuvent ainsi non seulement restaurer les données perdues, mais aussi annuler des changements spécifiques induits par l’IA et préserver la résilience tout en limitant les conséquences involontaires.
La restauration en elle-même devient de plus en plus intelligente. Ruby, le compagnon d’IA générative de Rubrik Security Cloud, accélère la cyberdétection, la restauration et la résilience pour tous les niveaux d’expertise cyber. Dès qu’une menace est détectée par la fonctionnalité Anomaly Detection de Rubrik, Ruby émet des conseils et des recommandations interactifs pour isoler et restaurer immédiatement les données infectées. En combinant des pistes d’audit forensiques, un rollback sélectif et des conseils assistés par l’IA, les entreprises savent que lorsque l’IA commet des erreurs – comme elle le fera inévitablement – la récupération sera aussi rapide, ciblée et fiable que les menaces sont imprévisibles.