InterCERT France
mardi 03 février
10h00
-
00h00

Solution miracle ou simple évolution technologique ? L’essor de l’intelligence artificielle (IA) dans le domaine de la cybersécurité s’accompagne à la fois de grandes promesses et d’une méfiance persistante. Beaucoup redoutent que l’IA ne renforce les risques stratégiques, n’approfondisse les dépendances technologiques et ne fragilise le contrôle des États et des organisations sur leurs systèmes critiques. Puisque le débat public oscille entre engouement démesuré et alarmisme, souvent brouillé par une confusion sur ce que recouvre réellement “l’IA”, il devient nécessaire de s’interroger sur ce que cette technologie apporte réellement aujourd’hui : de quelles façons elle renforce la cybersécurité, où sont ses limites, et comment l’encadrer de manière responsable.

À travers les regards croisés de plusieurs experts, cet article explore la façon dont l’IA transforme les pratiques du secteur, ce que cette évolution implique pour la dépendance stratégique, et comment les acteurs européens de la cybersécurité peuvent construire une utilisation durable et structurée.

Un multiplicateur de capacités

 L’IA est souvent perçue comme un “game-changer” dans la cybersécurité, parfois décrite comme une force capable d’automatiser entièrement la défense comme l’attaque. Pourtant derrière cette image de rupture, la réalité s’avère plus nuancée, comme l’explique Vincent Nguyen, Head of Cyber chez Stoïk : « Si les grands modèles de langage (LLMs) ont effectivement accéléré certains types d’attaques, il n’existe pas d’IA qui attaque de manière autonome et incontrôlée ».

Saâd Kadhi, directeur du CERT-EU, le service de cybersécurité des institutions européennes, partage cette analyse : « Il faut savoir tempérer les attentes parfois exagérées autour de l’intelligence artificielle. »

« Certains PDG promettent que leurs outils dopés à l’IA sont la solution miracle qui éradiquera toutes les menaces », poursuit-il. Si l’IA n’a pas radicalement redéfini le paysage de la cybersécurité, elle l’a indéniablement amplifié, en armant à la fois les attaquants et les défenseurs de nouvelles capacités, qui viennent s’opposer.

Côté défense, l’IA permet d’automatiser les tâches répétitives et de soulager les équipes, leur permettant de se concentrer sur des missions à plus forte valeur ajoutée – un avantage crucial dans un marché très concurrentiel où les talents sont rares. Pour les PME et micro-entreprises, souvent limitées en ressources, l’IA aide à combler les lacunes en automatisant la gestion des correctifs, la revue des droits d’accès, l’évaluation des vulnérabilités ou encore l’exploration de données, souligne Nguyen. Plus important encore, l’IA agit comme un facilitateur et un partenaire de réflexion pour les équipes de cybersécurité, à condition que les organisations l’associent à une stratégie claire, un cadre solide et des professionnels qualifiés aux commandes.

Chez Enedis, Vincent Garcia, Vulnerability Manager, utilise l’IA au quotidien pour détecter et classifier les données sensibles exposées par inadvertance sur des environnements partagés (dépôts de code, plateformes collaboratives, ou réseaux internes). Jusqu’alors, cette chasse aux menaces reposait sur des vérifications manuelles d’environ 85 000 occurrences par jour, dont à peine 10% étaient réellement pertinentes – un volume intenable pour l’équipe. En entraînant des modèles d’IA sur les données internes d’Enedis, l’équipe a automatisé la classification des menaces, réduit drastiquement les faux positifs et accéléré la remédiation. Au-delà du gain de temps, l’IA a amélioré la précision et la cohérence pour la classification des menaces en éliminant l’interprétation subjective humaine. Ce qui relevait auparavant d’un effort humain fastidieux est devenu une couche de défense systématique et évolutive, que l’entreprise prévoit d’étendre encore.

Du côté des attaquants, les avantages de l’IA sont également considérables, avec une vitesse, volume et crédibilité des attaques accrus. L’IA leur permet d’analyser de grandes quantités de données plus efficacement, de mieux sonder les réseaux ou les chaînes d’approvisionnement des victimes, et également d’élaborer des attaques d’ingénierie sociale plus sophistiquées. Bien que Nguyen souligne que la plupart des escroqueries reposent encore sur des techniques rudimentaires (comme l’usurpation d’identité sur WhatsApp), Kadhi met en garde : « Les modèles d’IA générative multimodale seront utilisés pour créer de faux profils, capables de nouer des liens avec des employés via les réseaux sociaux ou d’autres canaux numériques. »

Risques cachés et fondations instables

À mesure que les outils d’IA se généralisent, le risque d’une dépendance excessive devient tangible. L’automatisation ne doit pas conduire à affaiblir le discernement humain, surtout quand les cybermenaces gagnent en complexité. « L’être humain choisit souvent la facilité au détriment d’autres facteurs, comme le prouve la manière dont nous troquons facilement notre vie privée pour elle », rappelle Kadhi. Même les professionnels du secteur ne sont pas à l’abri de cette tentation, séduits par les gains de productivité évidents de l’IA malgré les risques. « L’IA reste un logiciel, et tout logiciel a des vulnérabilités », rappelle Kadhi, s’interrogeant : « Qui protégera ce nouveau remède miracle contre les attaques, les compromissions ou les manipulations ? »

Ce constat met en lumière un enjeu fondamental : les équipes de sécurité doivent examiner non seulement la provenance et la qualité des données qui entraînent et alimentent les systèmes d’IA, mais aussi la manière dont ces systèmes sont mis à jour et gouvernés. Sans transparence sur les données et les mises à jour, les organisations s’exposent à des biais, des angles morts et des modes de défaillance inattendus. Traiter l’IA comme une “boîte noire magique”, sans savoir comment elle fonctionne, laisse la porte ouverte à une programmation adverse ou à des mises à jour sélectives que les défenseurs ne peuvent pas évaluer de manière indépendante.

Autre faiblesse : l’essor rapide de l’IA dans la cybersécurité a également rendu le domaine vulnérable en matière de gestion de crise. Alors que d’autres secteurs, comme la santé, ont depuis longtemps renforcé leur résilience pour résister à des perturbations à grande échelle, notamment en conservant des compétences traditionnelles, la cybersécurité manque de cette robustesse, de nombreuses compétences étant externalisées vers des outils d’IA. Les entités européennes doivent donc être capables de comprendre, de contrôler et d’auditer les technologies sur lesquelles elles s’appuient, en particulier pour les systèmes critiques, qui devraient pouvoir continuer à fonctionner même sans IA.

Mais le défi n’est pas seulement technique. À mesure que l’IA s’intègre aux systèmes critiques, l’Europe est confrontée à des questions plus profondes de dépendance stratégique et de souveraineté. Bien que de nombreux risques proviennent encore de vulnérabilités internes plutôt que d’attaques extérieures, l’offre limitée de fournisseurs de cloud et d’IA de confiance en Europe continue de créer une forme d’exposition. Tant que ces lacunes en matière de capacité de calcul et d’infrastructures de cloud ne seront pas comblées, les institutions et opérateurs européens resteront dépendants d’acteurs externes – et donc exposés non seulement à d’éventuelles ingérences étrangères, mais aussi aux frictions géopolitiques qui débordent de plus en plus sur le domaine de la sécurité numérique.

Dans un marché dominé par des acteurs privés et guidé par des impératifs commerciaux, cette dépendance engendre également une fragilité économique. Les fluctuations de prix, les restrictions d’accès, ou même un éclatement de la « bulle de l’IA » pourraient laisser les entités européennes dans l’incapacité d’accéder ou de s’offrir les outils dont elles dépendent désormais. La question n’est donc pas seulement de savoir comment sécuriser l’IA, mais comment garantir la capacité de l’Europe à se sécuriser sans elle.

Créer les conditions d’une IA de confiance et maîtrisée

Dans ce contexte, une adoption réfléchie de l’IA reste possible, même si cet effort n’est ni rapide ni facile, comme le reconnaît Kadhi : « Oui, cela prend du temps. Oui, cela demande des ressources ».

Si l’IA offre des opportunités considérables pour la cybersécurité, sa valeur dépend de l’esprit critique et de l’expertise de ceux qui l’utilisent. Pour les professionnels qualifiés, elle permet d’automatiser les tâches répétitives, de faire émerger des informations pertinentes et de renforcer la prise de décision. Cependant, sans objectif clair ni capacité à évaluer les résultats de manière critique, l’IA risque de guider les experts au lieu d’être guidée par eux, renforçant potentiellement des erreurs ou de fausses hypothèses.

Au-delà des compétences individuelles, une adoption responsable nécessite aussi des garde-fous organisationnels. Des certifications accréditées et indépendantes, des processus de mise à jour transparents, ainsi que des normes européennes harmonisées, telles que la future Législation sur la cyberrésilience de l’Union européenne, sont essentiels pour garantir un usage sûr et efficace des outils d’IA. Il est tout aussi important de promouvoir une culture de la collaboration et de l’apprentissage continu, avec des tests réguliers, des méthodologies partagées et, lorsque pertinent, des modèles open source, pour transformer des initiatives isolées en véritable résilience collective. En parallèle, l’empreinte environnementale de l’IA ne peut être ignorée : ses besoins en puissance de calcul contribuent à la consommation d’énergie et aux émissions de CO2, et il incombe aux organisations de surveiller et d’atténuer leur empreinte en adoptant des approches plus efficaces ou durables.

En définitive, renforcer la résilience en cybersécurité passe d’abord par la reconnaissance des limites structurelles, pour pouvoir s’y attaquer de front. En combinant des objectifs clairs, une responsabilité structurée et des pratiques collaboratives, et à condition que les acteurs européens poursuivent leurs investissements dans des technologies souveraines et de confiance, l’IA peut devenir un véritable multiplicateur de capacités humaines, plutôt qu’un raccourci illusoire.