Face à la déferlante des deepfakes, la tech organise la riposte

Des solutions émergent dans le monde de la tech pour combattre les deepfakes, fausses vidéos ou voix synthétiques que l’intelligence artificielle (IA) générative a démocratisées, avec l’objectif d’empêcher arnaques en tout genre.
« C’est moi. (…) J’ai eu un accident. » A l’autre bout du fil, Laurel entend la voix de sa mère, Debby Bodkin, qui lui explique être à l’hôpital.
La jeune femme a le réflexe de raccrocher et d’appeler Debby qui, en réalité, est à son bureau, indemne. Par chance, Laurel se trouvait chez sa grand-mère, Ruthy, 93 ans, à laquelle était destiné l’appel et la tentative d’arnaque qui aurait suivi.
« Les tentatives sont quotidiennes », explique à l’AFP Debby, qui vit en Californie. « L’IA peut être très dangereuse. »
Popularisés sur les réseaux sociaux par le détournement de personnalités, parfois à des fins de désinformation, les deepfakes sont aussi exploités par le crime organisé.
Début février, la police de Hong Kong a révélé qu’un employé d’une multinationale avait été convaincu de transférer 200 millions de dollars hongkongais (25 millions de dollars américains) à des escrocs qui avaient organisé une visioconférence avec des avatars IA plus vrais que nature de plusieurs de ses collègues.
Lire aussi | La cyber-résilience : une assurance-vie vitale pour les entreprises et institutions marocaines
Une étude publiée en février par la startup iBoom, spécialisée dans l’identification, montre que seulement 0,1% des Américains et des Britanniques testés étaient capables de repérer correctement une fausse image ou vidéo.
Il y a moins de dix ans, « il n’y avait qu’un outil » pour générer une voix par IA, appelé Lyrebird, explique Vijay Balasubramaniyan, patron de Pindrop Security, spécialiste de l’authentification vocale. « Aujourd’hui, il y en a 490. »
L’arrivée de l’IA générative a changé la donne.
« Avant », se souvient le responsable, « il fallait 20 heures (d’enregistrements) pour recréer votre voix. Aujourd’hui, c’est cinq secondes. »
Plusieurs prestataires proposent aux entreprises de repérer, en temps réel, les faussaires IA, que ce soit en audio ou en vidéo, tels Reality Defender ou Intel.
Ce dernier utilise les changements de couleur des vaisseaux sanguins du visage (photopléthysmographie) pour son outil FakeCatcher, tandis que Pindrop décompose en 8.000 extraits chaque seconde d’audio et les compare aux caractéristiques d’une voix humaine.
« C’est comme toute société de cybersécurité, il faut rester à la page », relève Nicos Vekiarides, patron d’Attestiv. « Au début, on voyait des gens avec une main à six doigts, mais les progrès on fait que c’est de plus en plus difficile de dire à l’oeil nu. »
Lire aussi | L’UE mobilise 200 milliards d’euros pour l’intelligence artificielle
Certaines publications scientifiques ont relativisé l’efficacité de ces systèmes de détection mais plusieurs études universitaires ont aussi mis en évidence des taux d’identification élevés.
Pour Vijay Balasubramaniyan, à terme, toutes les entreprises vont devoir se doter de logiciels d’identification des contenus IA.
Au-delà des secteurs de la finance et des assurances, victimes traditionnelles de fraudes, « cela devient une menace globale de cybersécurité », prévient Nicos Vekiarides.
Selon lui, « n’importe quelle entreprise peut voir sa réputation ternie par un deepfake ou être visée par ces attaques sophistiquées ».
M. Balasubramaniyan souligne que l’augmentation du télétravail accroît encore les risques d’usurpation d’identité.
Et le spectre pourrait s’étendre au grand public, sous la menace d’appels trafiqués, particulièrement les plus âgés.
En janvier, le fabricant chinois Honor a présenté son nouveau smartphone, le Magic7, capable de repérer et de signaler, en temps réel, que l’interlocuteur utilise l’IA lors d’un appel vidéo.
Fin 2024, la startup britannique Surf Security a mis sur le marché un navigateur internet, pour l’instant destiné uniquement aux entreprises, à même d’alerter l’utilisateur lorsqu’une voix ou une vidéo paraît avoir été générée par IA.
Lire aussi | Anasse Bari, expert marocain en intelligence artificielle, primé à l’Université de New York
Attestiv affirme avoir déjà des milliers d’utilisateurs particuliers de sa formule gratuite.
Pindrop collabore avec des opérateurs téléphoniques et anticipe une annonce d’ici six mois, avec l’idée de « protéger le consommateur final », avance M. Balasubramaniyan.
Pour Siwei Lyu, professeur d’informatique à l’université publique de Buffalo (Etat de New York), « les deepfakes vont devenir comme les spams », cauchemar des premiers internautes aujourd’hui quasiment sous contrôle, grâce à l’efficacité des logiciels de tri des courriels.
« L’IA générative a brouillé la frontière entre l’humain et la machine », estime Vijay Balasubramaniyan. « Les sociétés qui arriveront à rétablir cette séparation vont devenir énorme », et ce marché peser « des milliards ».
Challenge (avec AFP)