Sommaire
un changement d’échelle dans les menaces numériques
La cybersécurité n’est plus un simple enjeu technique. Elle est aujourd’hui au cœur de la résilience stratégique des entreprises. Ce constat s’impose d’autant plus avec l’émergence massive de l’intelligence artificielle (IA), qui bouleverse l’équilibre entre attaquants et défenseurs.
Les cyberattaques reposaient sur des préparations artisanales, souvent ciblées, lentes et complexes à réaliser. Elles nécessitaient une expertise pointue et des moyens significatifs. Mais ce temps est révolu. Désormais, les outils d’IA permettent une industrialisation des cyberattaques. En abaissant les barrières techniques, l’IA ouvre la voie à des attaques toujours plus nombreuses, sophistiquées et difficiles à détecter.
L’entreprise se retrouve donc exposée à une double menace : externe, par des cybercriminels dopés à l’IA, et interne, par un usage non contrôlé des outils IA dans ses propres processus.
Quand l’IA devient l’arme des cybercriminels
Exemple concret : deepfake vocal et fraude au président
L’un des cas les plus frappants de cette nouvelle ère est celui d’une entreprise britannique, victime d’une fraude au président utilisant une technologie de deepfake vocal. Un employé, pensant échanger au téléphone avec son PDG, a reçu l’ordre d’effectuer un virement urgent. Convaincu par la voix parfaitement imitée, générée par une IA, il transfère plus de 200 000 dollars vers un compte frauduleux.
Ce type d’escroquerie, auparavant complexe à réaliser, devient accessible à moindre coût grâce aux modèles vocaux dopés à l’IA. Il illustre une tendance lourde : l’IA permet d’automatiser la tromperie, en simulant à la perfection la voix, le style ou même l’image d’une personne.
L’IA en entreprise : des usages qui créent aussi des failles
L’IA n’est pas seulement un risque à l’extérieur des murs. Elle est aussi un facteur de vulnérabilité lorsqu’elle est mal utilisée en interne.
Les nouveaux risques liés à l’usage interne de l’IA :
- Outils non contrôlés : des outils d’IA sont utilisés sans validation de la DSI, exposant l’entreprise à des fuites de données ou à l’intégration de contenus non fiables.
- Informations trompeuses : les IA génératives peuvent produire des informations fausses mais crédibles, risquant d’influencer des décisions automatisées sensibles.
- Erreurs de traitement : des IA mal entraînées peuvent engendrer des décisions injustes ou erronées, avec des conséquences juridiques et réputationnelles.
- Modèles manipulés : des données manipulées peuvent tromper les modèles d’IA et altérer leur comportement.
Un tournant réglementaire majeur : IA + cybersécurité, une convergence inévitable
L’Europe prépare une régulation ambitieuse avec l’AI Act, attendu pour 2025–2026. L’objectif : encadrer les usages de l’IA selon leur niveau de risque.
- Les IA les plus critiques (finance, santé, RH…) devront respecter des règles strictes : transparence, supervision humaine, sécurité renforcée.
- Certaines IA seront même interdites (ex. : surveillance de masse injustifiée).
Ce texte ne vient pas seul. Il s’ajoute à d’autres réglementations déjà en place :
- RGPD pour les données personnelles
- NIS2 pour la cybersécurité des infrastructures critiques
- DORA pour la résilience numérique dans le secteur financier
Cette convergence réglementaire vise un seul but : garantir un usage responsable et sécurisé de l’IA dans tous les secteurs.
Quelles bonnes pratiques pour les dirigeants ?
Face à ce nouveau paysage, les directions générales et les comités exécutifs doivent adopter une posture de gouvernance proactive de l’intelligence artificielle.
- Cartographier les usages de l’IA
La première étape consiste à identifier l’ensemble des outils d’IA utilisés dans l’organisation, y compris ceux mis en place en dehors du contrôle de la DSI. Il est ensuite essentiel d’évaluer leur criticité, leur exposition aux données sensibles, et leur conformité aux exigences réglementaires. - Intégrer la cybersécurité dès la conception
Tout projet intégrant de l’IA doit respecter le principe du “security by design”. Cela implique d’associer les équipes cybersécurité (RSSI), conformité (DPO) et les métiers dès les premières étapes de développement ou d’adoption. - Former les collaborateurs
La sensibilisation des équipes est un levier clé. Il faut former les collaborateurs aux risques spécifiques liés à l’IA, comme les hallucinations, les biais ou les atteintes à la confidentialité, et s’assurer que les utilisateurs clés maîtrisent les bonnes pratiques. - Mettre en place une gouvernance dédiée
Une gouvernance claire de l’IA est indispensable. Elle passe par la définition de règles d’usage et de supervision, et par la création d’un comité de pilotage réunissant les fonctions cybersécurité, conformité et métiers. - Anticiper la régulation
Enfin, il est stratégique de préparer dès maintenant la conformité aux futures régulations comme l’AI Act. Cela implique de revoir les politiques internes de sécurité, de traitement des données et de gouvernance des systèmes automatisés.
Conclusion : gouverner l’IA pour sécuriser l’avenir numérique
L’intelligence artificielle représente un levier majeur d’innovation, de performance et de transformation. Mais lorsqu’elle est mal maîtrisée, elle peut devenir une source importante de risques, tant sur le plan opérationnel que juridique ou réputationnel.
Les dirigeants doivent prendre conscience que la cybersécurité de demain repose aussi sur une gouvernance solide de l’IA. Anticiper, encadrer et sécuriser ses usages est désormais indispensable pour bâtir une entreprise résiliente, conforme aux réglementations et digne de confiance.