Cybersécurité & IA : À l’attaque! (et en défense)

Inspiré de la conférence « L’impact de l’intelligence artificielle sur la cybersécurité » animée par Benoît Grunemwald (directeur d’ESET France) lors du salon IT Partners 2025.

En pleine actualité récente, avec l’interdiction de Deepseek par le gouvernement italien, l’intelligence artificielle est au cœur des tensions et des interrogations liées à la cybersécurité.
Comment les nouveaux compagnons d’IA générative et les gigantesques volumes de données utilisés pour les alimenter peuvent-ils être (mal) utilisés afin de contourner les principes de la sécurité informatique ?

ChatGPT, Deepseek… des outils à manier avec des pincettes

Avec un volume de traitement de données sans commune mesure, l’intelligence artificielle transforme de nombreux secteurs, et la cybersécurité ne fait pas exception.

L’avènement des LLM comme GPT-3 ou 4, et leur généralisation, a permis de créer un nouveau terrain de choix pour les cyberattaques. Ces modèles sont devenus de nouvelles cibles pour des attaques de plus en plus sophistiquées, en exploitant les failles intrinsèques liées à leurs conceptions.

Les risques identifiés par l’OWASP

Le top 10 de l’Open Worldwide Application Security Project (OWASP), communauté en ligne travaillant sur les enjeux de cybersécurité, nous alerte sur les principaux risques liés à l’usage des LLM.

L’injection de prompt est l’une des premières failles identifiées par la communauté. En manipulant directement les entrées du modèle, on peut parvenir à extraire des données sensibles ou encore à contourner certains mécanismes de sécurité.

Benoît Grunemwald nous donne l’exemple hypothétique, lors de sa conférence, d’une mairie qui aurait un modèle de LLM basé sur des données internes. Mal protégé, un simple prompt permettrait d’extraire des données sensibles provenant directement de la base du grand modèle de langage interne de la mairie.

OWASP conseille de bien séparer le contenu externe des prompts des utilisateurs ou encore d’implémenter des contrôles d’accès stricts pour les fonctionnalités backend.

L’erreur Samsung : un rappel à l’ordre

L’une des grosses failles potentielles est liée à l’utilisation peu rigoureuse des outils d’IA générative. L’exemple de Samsung en 2023 est l’un des plus marquants.

Des ingénieurs de l’entreprise sud-coréenne avaient partagé du code confidentiel ou encore des comptes rendus de réunion avec ChatGPT afin d’optimiser leurs travaux. En faisant cela, des données sensibles se sont alors retrouvées indexées et donc publiques via le poulain d’OpenAI, provoquant la panique et des mesures restrictives de l’entreprise.

Cela rappelle que les IA, contrairement à votre médecin traitant, ne sont pas soumises au secret professionnel.

L’IA, un allié pour les cybercriminels ?

À l’instar du marketing online to offline, qui induit une phase de lèche-vitrine en ligne avant d’acheter le produit dans un lieu physique, ChatGPT permet également de mieux organiser des attaques réelles.

En ce début d’année 2025, un ancien militaire américain a programmé une attaque à la Tesla piégée devant l’hôtel Trump à Las Vegas en planifiant son méfait via le LLM d’OpenAI.

En interrogeant ChatGPT, l’assaillant a pu se renseigner sur la limite légale pour acheter de la tannerite (substance explosive) et les types de téléphones ne nécessitant pas d’informations personnelles pour leur activation.

L’IA permet aussi de lutter contre des attaques ciblées

Même si l’IA a permis de multiplier les possibilités d’attaques cyber, elle multiplie aussi les possibilités de défense.

Les limites des antivirus classiques

Les antivirus traditionnels se basent sur une liste de signatures de logiciels malveillants afin de pouvoir les détecter dans le hardware où ils sont installés. Ces signatures sont de simples chaînes de caractères dans un fichier qui indiquent la présence d’un virus.

Une des limites majeures de ces antivirus est que leurs bases de signatures ne sont pas extensibles et qu’il faut les mettre à jour régulièrement afin d’anticiper toutes les potentielles menaces.

L’arrivée des antivirus IA : vers une cybersécurité proactive

Un antivirus nouvelle génération (NGAV) utilise l’intelligence artificielle, l’analyse comportementale et le machine learning pour toujours être en avance et identifier en quasi-temps réel les logiciels ou comportements malveillants, ou encore le phishing.

Autre nouveauté soulignée par Benoît :

Avant, les antivirus nous indiquaient le nombre de fichiers malveillants supprimés ;
Maintenant, on va pouvoir directement converser avec son antivirus via un chatbot boosté à l’IA et sécurisé, afin d’aller plus loin dans l’analyse de son antivirus et dans la prévention des risques.

Conclusion : Une vigilance nécessaire face à l’IA en cybersécurité

L’intelligence artificielle offre à la fois des moyens de défense renforcés, mais crée aussi d’innombrables brèches, démocratisant par la même occasion les enjeux de cybersécurité, l’exemple de l’injection de prompt étant le plus symptomatique.

En ajoutant à cela la génération automatisée de voix ou de vidéos, la vigilance et la prévention semblent les mots les plus adéquats pour aborder cette nouvelle ère qu’est l’intelligence artificielle de façon sereine.

Vous rencontrez des enjeux lié à la cybersécurité ? Contactez-nous pour un audit de sécurité et une stratégie de protection adaptée.

Enquire now