1 mars 2026 · 5 min de lecture · Par DYLETH
Un cas réel : 15 000 euros perdus en Belgique
En 2024, une famille de la région de Liège a vécu une expérience qui illustre parfaitement la menace des deepfakes audio. La mère reçoit un appel téléphonique. À l'autre bout du fil : la voix de son fils, claire, reconnaissable, paniquée. Il lui explique qu'il a eu un accident de voiture à l'étranger, que la police l'a retenu, qu'il a besoin de 15 000 euros en urgence pour payer une caution et éviter la prison. Elle doit virer l'argent maintenant, par virement bancaire, sur un compte que son "avocat" va lui communiquer.
La voix était celle de son fils. Le timbre, les intonations, même les petites hésitations caractéristiques. Elle a viré l'argent. Son fils était chez lui, sain et sauf, sans avoir rien demandé. La voix entendue avait été synthétisée à partir de quelques vidéos publiques — une interview sur un réseau social local, des stories Instagram.
Ce cas n'est pas isolé. Des centaines de cas similaires ont été documentés en Europe et aux États-Unis ces deux dernières années. En France, cybermalveillance.gouv.fr a commencé à recenser des signalements de ce type de fraude dès 2023, avec une nette accélération en 2024.
Comment fonctionne le clonage vocal par IA
Pour comprendre la menace, il faut d'abord comprendre la technologie — sans entrer dans les détails techniques. Le clonage vocal par intelligence artificielle repose sur des modèles entraînés à analyser les caractéristiques uniques d'une voix : fréquences, rythme, prononciation, intonations, "couleur" générale du timbre. Ces caractéristiques constituent une sorte d'empreinte vocale.
Une fois cette empreinte capturée, le système peut générer de nouvelles phrases dans cette voix — des phrases que la personne réelle n'a jamais prononcées. La qualité du résultat dépend de la quantité d'audio disponible pour l'entraînement, mais les outils actuels atteignent des résultats convaincants avec seulement 3 à 10 secondes d'enregistrement de bonne qualité.
Ces outils ne sont pas réservés aux hackers experts. Plusieurs services en ligne accessibles au grand public permettent de cloner une voix pour quelques euros, voire gratuitement. Les barrières techniques ont presque entièrement disparu.
D'où viennent les enregistrements utilisés ? De partout : vidéos publiées sur les réseaux sociaux, interviews en ligne, podcasts, messages vocaux sur des applications de messagerie, profils LinkedIn avec présentation audio. La moindre apparition sonore publique peut suffire.
À retenir
3 secondes d'audio suffisent aux meilleurs outils actuels pour créer un clone vocal convaincant. Toute vidéo ou note vocale publiée en ligne peut servir de source. La qualité du clone s'améliore avec la quantité d'audio disponible, mais le résultat de base est déjà souvent trompeur.
Les trois scénarios de fraude les plus courants
Scénario 1 — L'urgence familiale
C'est le scénario de la famille belge. Un proche — fils, fille, conjoint, parent — appelle en détresse depuis un numéro inconnu (ou en masqué). Il est en situation d'urgence : accident, arrestation, hospitalisation à l'étranger, problème judiciaire. Il a besoin d'argent immédiatement. La somme est suffisamment élevée pour être crédible, mais pas exorbitante. Le temps presse.
Ce scénario cible en priorité les parents et grands-parents, pour qui l'idée de laisser un enfant en difficulté est insupportable. L'urgence émotionnelle court-circuite toute pensée rationnelle. Les fraudeurs comptent précisément sur ce mécanisme.
Scénario 2 — Le faux conseiller bancaire ou professionnel
Dans ce scénario, la voix clonée n'est pas celle d'un proche mais celle d'un professionnel connu : votre banquier habituel, votre notaire, votre expert-comptable, votre directeur dans un contexte professionnel. La voix familière crée immédiatement un sentiment de confiance et de légitimité.
L'objectif est de vous convaincre d'effectuer une action — virement, confirmation d'identité, changement de coordonnées bancaires — en faisant croire que la demande vient d'une source de confiance. Dans un contexte professionnel, ce scénario prend la forme d'une "fraude au président" : un faux dirigeant appelle un comptable pour lui demander un virement urgent et confidentiel.
Scénario 3 — La fraude au président avec deepfake vidéo
La variante la plus sophistiquée combine audio et vidéo synthétiques. En 2024, une entreprise hongkongaise a perdu l'équivalent de 25 millions de dollars suite à une vidéoconférence où tous les participants — dont le directeur financier de la société mère — étaient des deepfakes générés en temps réel. L'employé a effectué plusieurs virements, convaincu de parler à ses supérieurs.
Cette variante reste plus complexe à mettre en œuvre que le deepfake audio seul, mais elle est en progression rapide. En France, des cas de fraude au président augmentés de clonage vocal ont été signalés par plusieurs grandes entreprises auprès des services de gendarmerie spécialisés.
Comment repérer une voix clonée
Les deepfakes audio de 2025 sont bons — mais pas parfaits. Certains signaux peuvent vous alerter :
- Silences inhabituels : les systèmes de synthèse vocale ont parfois du mal à gérer les transitions naturelles entre les phrases. Des silences légèrement trop longs ou trop courts peuvent trahir une voix synthétique.
- Manque de réactivité contextuelle : une voix clonée fonctionne à partir d'un script. Si vous posez une question inattendue ou faites référence à un souvenir commun précis, l'interlocuteur peut hésiter ou répondre de façon générale.
- Qualité audio légèrement artificielle : certains clones présentent une qualité sonore trop uniforme, sans les variations naturelles liées à la respiration, aux mouvements ou à l'environnement acoustique.
- Numéro masqué ou inhabituel : la voix clonée est le contenu de l'arnaque, mais l'appel provient toujours d'un numéro — souvent masqué ou étranger.
Cependant, compter sur ces indices n'est pas une stratégie fiable. Les meilleurs outils éliminent progressivement ces défauts. La vraie protection repose sur des protocoles de vérification, pas sur la détection auditive.
Votre protocole de protection : simple et efficace
Face aux deepfakes audio, la règle la plus efficace est aussi la plus simple : ne jamais effectuer d'action urgente et irréversible lors d'un appel non sollicité, quelle que soit la voix entendue.
Voici un protocole en quatre étapes :
- Raccrochez et rappelez — Dites à l'appelant que vous le rappelez dans deux minutes. Utilisez le numéro que vous connaissez déjà (enregistré dans vos contacts, sur un document officiel) — jamais le numéro affiché sur l'appel entrant.
- Posez une question de vérification personnelle — Si vous rappelez et que la personne répond, posez une question dont seule la vraie personne connaît la réponse : un souvenir commun, un surnom, un détail de votre dernière conversation. Un clone vocal ne peut pas répondre à ces questions.
- Établissez un mot de code familial — Avec vos proches, convenez d'un mot ou d'une phrase de code à utiliser en cas d'urgence réelle. Si quelqu'un vous appelle en urgence sans connaître ce code, c'est un signal d'alerte fort.
- Ne transférez jamais d'argent par virement suite à un appel — Un virement bancaire est quasi irréversible. Aucune urgence légitime ne vous interdira de prendre quelques minutes pour vérifier la situation par un autre canal.
DYLETH : détecter avant la première sonnerie
Le clonage vocal est le contenu d'une arnaque — mais l'appel lui-même possède une signature technique. Le numéro d'où il provient, la façon dont il est routé à travers les réseaux téléphoniques, les métadonnées associées à la connexion : ces éléments sont analysables avant même que vous décrochiez.
DYLETH compare chaque appel entrant à une base de données de plus de 50 millions de signatures de numéros frauduleux connus, enrichie en temps réel par notre réseau de détection. Notre algorithme analyse également les comportements suspects : numéros ayant contacté un grand nombre de personnes en peu de temps, origines géographiques inhabituelles, patterns d'appel caractéristiques des campagnes de fraude.
Si un appel présente des signaux d'alerte, votre téléphone ne sonne pas. Vous recevez une notification discrète, et vous choisissez si vous souhaitez tout de même répondre. En moins de 75 millisecondes — avant même la première sonnerie.
Cela ne remplace pas le protocole humain décrit ci-dessus pour les appels qui passent. Mais cela filtre une grande partie des tentatives de fraude avant même qu'elles n'atteignent votre conscience.
La situation juridique en France
En France, le clonage vocal d'une personne sans son consentement est illégal sous plusieurs dispositions du Code pénal. L'article 226-1 protège le droit à la vie privée et punit l'enregistrement de paroles sans consentement. L'usage d'une voix clonée pour escroquer est constitutif d'escroquerie au sens de l'article 313-1, passible de cinq ans d'emprisonnement et 375 000 euros d'amende.
Le Parlement européen a par ailleurs adopté en 2024 l'AI Act, qui impose des obligations strictes aux fournisseurs de systèmes de clonage vocal : watermarking (marquage invisible des contenus synthétiques), conditions d'utilisation encadrées, registres d'utilisation. Ces mesures visent à rendre traçables les usages abusifs, même si leur application pratique dans le cadre d'arnaques orchestrées depuis l'étranger reste un défi.
Si vous êtes victime d'une arnaque au deepfake vocal, déposez plainte immédiatement auprès de la police ou de la gendarmerie, en mentionnant explicitement l'usage de clonage vocal. Signalez également sur cybermalveillance.gouv.fr. Ces signalements contribuent à documenter le phénomène et à orienter les ressources des services spécialisés.
Conclusion : la confiance dans une voix n'est plus suffisante
Reconnaître la voix de quelqu'un a toujours été, dans notre histoire humaine, le signe le plus sûr de son identité. Les deepfakes audio remettent en cause cette certitude fondamentale. Ce n'est pas une raison de paniquer — mais c'est une raison de mettre en place des protocoles de vérification simples avec ses proches.
Convenez d'un mot de code avec votre famille. Refusez toujours d'effectuer un virement suite à un appel non sollicité, même si la voix vous semble familière. Et donnez à DYLETH la charge de filtrer les appels suspects avant qu'ils n'atteignent votre téléphone.
La technologie évolue vite. Nos réflexes de protection doivent évoluer aussi.
