L’émergence de l’IA générative et créative a radicalement modifié le domaine de la cybersécurité. Désormais, les assaillants tirent parti de vastes modèles linguistiques (LLM) pour se déguiser en individus dignes de confiance et déployer ces stratégies d’ingénierie sociale à une échelle massive.
Examinons la situation actuelle de ces attaques en hausse, ce qui les propulse, et comment les éviter plutôt que de simplement les repérer. Les DeepFake ne font pas exception à cette règle et intègre l’armada des hackers avec brio.
Examinons la situation actuelle de ces attaques en hausse, ce qui les propulse, et comment les éviter plutôt que de simplement les repérer. Les DeepFake ne font pas exception à cette règle et intègre l’armada des hackers avec brio.
La personne qui vous appelle n’est peut-être pas réelle
Les derniers rapports de renseignement concernant les menaces mettent en évidence la complexité et la fréquence grandissante des attaques basées sur l’IA :
Hausse du vishing : d’après le rapport 2025 de CrowdStrike sur les menaces à l’échelle mondiale, les attaques par phishing vocal (vishing) ont connu une progression de 442 % entre la première et la seconde partie de 2024, en raison des tactiques d’hameçonnage et d’usurpation d’identité alimentées par l’IA.
Prévalence de l’ingénierie sociale : selon le rapport 2025 de Verizon sur les infractions aux données, l’ingénierie sociale continue d’être une méthode prédominante de violations, l’hameçonnage et le faux prétexte constituant une proportion significative des incidents.
Dans cette nouvelle ère, la confiance ne peut être ni présumée ni simplement détectée. Elle doit être prouvée de manière déterministe et en temps réel.
Hausse du vishing : d’après le rapport 2025 de CrowdStrike sur les menaces à l’échelle mondiale, les attaques par phishing vocal (vishing) ont connu une progression de 442 % entre la première et la seconde partie de 2024, en raison des tactiques d’hameçonnage et d’usurpation d’identité alimentées par l’IA.
Prévalence de l’ingénierie sociale : selon le rapport 2025 de Verizon sur les infractions aux données, l’ingénierie sociale continue d’être une méthode prédominante de violations, l’hameçonnage et le faux prétexte constituant une proportion significative des incidents.
Dans cette nouvelle ère, la confiance ne peut être ni présumée ni simplement détectée. Elle doit être prouvée de manière déterministe et en temps réel.
Pourquoi le problème s’aggrave-t-il ?
Trois courants se rejoignent pour transformer l’usurpation d’identité via l’IA en la prochaine menace majeure :
- L’IA facilite la tromperie à bas coût et évolutive : grâce à des outils vocaux et vidéo libres d’accès, les individus malintentionnés peuvent se présenter sous n’importe quelle identité avec seulement quelques minutes d’enregistrement de référence.
- La coopération à distance expose des brèches dans la confiance : des plateformes telles que Zoom, Teams et Slack partent du principe que l’individu devant l’écran est véritablement celui qu’il déclare être. Les assaillants tirent parti de cette présomption.
- Généralement, les défenses se basent sur des probabilités plutôt que sur des preuves concrètes : les instruments de détection de deepfakes font appel à des indicateurs faciaux et des examens pour évaluer l’authenticité d’une personne. Ce n’est pas adéquat dans un contexte où les enjeux sont élevés.
Et même si les outils de point de terminaison ou la formation des utilisateurs peuvent aider, ils ne sont pas conçus pour répondre à une question critique en temps réel :
puis-je faire confiance à la personne à qui je parle ?
puis-je faire confiance à la personne à qui je parle ?
Les technologies de détection de l’IA ne suffisent pas
Les stratégies de défense classiques mettent l’accent sur l’identification, en formant les utilisateurs à reconnaître des comportements suspects ou en recourant à l’IA pour déterminer si une personne est un fraudeur. Cependant, les deepfakes deviennent de plus en plus efficaces et rapides. Il est impossible de combattre la supercherie produite par l’IA avec des instruments fondés sur les probabilités.
Une véritable prévention nécessite une base distincte, ancrée dans une confiance tangible et non sur des hypothèses. Ceci implique :
Une véritable prévention nécessite une base distincte, ancrée dans une confiance tangible et non sur des hypothèses. Ceci implique :
- Vérification d’identité : seuls les utilisateurs vérifiés et autorisés doivent pouvoir rejoindre des réunions ou des discussions sensibles en fonction d’informations d’identification cryptographiques, et non de mots de passe ou de codes.
- Vérification de l’intégrité des appareils : Si l’appareil d’un utilisateur est infecté, débridé ou non conforme, il devient un point d’entrée potentiel pour les attaquants, même si son identité est vérifiée. Bloquez ces appareils pour les réunions jusqu’à ce que la situation soit résolue.
- Indicateurs de confiance visibles : Les autres participants doivent avoir la preuve que chaque personne présente à la réunion est bien celle qu’elle prétend être et utilise un appareil sécurisé. Cela libère les utilisateurs finaux du fardeau du jugement.
La prévention consiste à créer des conditions où l’usurpation d’identité est non seulement difficile, mais impossible. C’est ainsi que vous neutralisez les attaques deepfakes par IA avant qu’elles ne se joignent à des conversations à haut risque comme des réunions de conseil d’administration, des transactions financières ou des collaborations avec des fournisseurs.
Comment éliminez les menaces Deepfake de vos appels
Voici une liste professionnelle et détaillée des outils de détection de deepfake, classés selon leur accessibilité (open source, services SaaS, bibliothèques IA, etc.), leur usage (analyse vidéo, image, temps réel) et leur niveau technique requis.
- Deepware Scanner
Type : Application de bureau & mobile
Source : https://www.deepware.ai
Fonction : Analyse les vidéos locales ou en ligne pour repérer les signes de deepfake.
Avantages : Facile à utiliser – pas besoin de compétences techniques.
Limite : Black-box – on ne voit pas le fonctionnement exact du moteur. - DeepFaceLab
Type : Framework de création/détection
Source : https://github.com/iperov/DeepFaceLab
Fonction : Outil de génération, mais utilisé pour entraîner des détecteurs personnalisés.
Utilisation avancée : Permet de créer un dataset personnalisé pour entraîner un réseau détecteur - DFD (DeepFake Detection Challenge Dataset) + Baselines
Type : Dataset + modèles
Source : Kaggle DFD Challenge
Fonction : Données + architectures prêtes à l’emploi (XceptionNet, EfficientNet, etc.)
Besoin : Connaissances ML pour entraîner/inférer. - FaceForensics++
Type : Dataset & outils d’évaluation
Source : https://github.com/ondyari/FaceForensics
Utilité : Référence académique pour tester des modèles de détection.
Tech requis : Très avancé (prévu pour la recherche IA). - FakeCatcher (Intel)
Type : Technologie biométrique IA (analyse des signaux sanguins)
Source : Technologie propriétaire d’Intel
Statut : Pas disponible en open source, mais utilisé dans des outils partenaires.
Spécificité : Analyse micro-signes physiologiques (flux sanguin, mouvement des pupilles). - Microsoft Video Authenticator
Fonction : Détection de deepfake vidéo/image
Accès : Disponible uniquement pour ONG, journalistes, etc.
Techno : Analyse des pixels et des incohérences temporelles.
Il en existe bien d’autre comme : Sensity.ai (anciennement Deeptrace), Hive Moderation Deepfake Detection API,
Ainsi que une Extension de navigateurs
InVID Verification Plugin
Type : Extension Chrome / Firefox
Source : https://www.invid-project.eu/tools-and-services/invid-verification-plugin/
Utilité : Vérification d’images et vidéos virales (non spécifique deepfake, mais utile en journalisme).
Si vous avez besoin de conseil
Ainsi que une Extension de navigateurs
InVID Verification Plugin
Type : Extension Chrome / Firefox
Source : https://www.invid-project.eu/tools-and-services/invid-verification-plugin/
Utilité : Vérification d’images et vidéos virales (non spécifique deepfake, mais utile en journalisme).
Si vous avez besoin de conseil