Dans l’immense univers du web, une nouvelle forme de menace numérique se manifeste, celle des DeepFakes. J’ai eu l’occasion d’en discuter dans ma chronique cyber sur les antennes de M6 et RTL dans l’émission de Julien Courbet «Ça peut vous arriver». Ces vidéos trompeuses, utilisant l’image et la voix de célébrités, ont fait une apparition remarquée aux États-Unis, ciblant principalement les utilisateurs des programmes d’assurance médicale Medicare et Medicaid.
Les journalistes du média américain 404 Media ont éclairé cette réalité préoccupante dans un article détaillé. Ils ont révélé une playlist de 1600 vidéos deepfake sur YouTube, totalisant plus de 195 millions de visionnages. Un vrai trésor pour les pirates. Ces vidéos détournent l’image de personnalités comme Taylor Swift, Steve Harvey, Ice Cube, Andrew Tate, Oprah Winfrey, et d’autres, tel que MrBeast, leader des vidéos sur YouTube. Certains DeepFakes utilisent des voix générées par intelligence artificielle pour renforcer l’illusion comme j’ai pu vous le montrer dans les deepfakes utilisées dans des sextorsions.
Ces deepfakes promettent faussement divers avantages liés aux programmes Medicare et Medicaid, incitant les victimes à divulguer leurs informations bancaires ou à réaliser des transferts financiers. On note l’inefficacité apparente de YouTube, propriété de Google, à détecter et bloquer ces contenus générés par l’IA, malgré l’indignation des utilisateurs et des célébrités concernées.
Il a été également rapporté que des escroqueries similaires, utilisant les voix de Cardi B, Tom Hanks, Elon Musk, Rishi Sunak, et même Joe Biden, ont été identifiées sur d’autres plateformes telles que Facebook, TikTok et Instagram.
Un exemple frappant est une publicité deepfake de Taylor Swift, vue plus de 300 000 fois, promettant des aides financières illusoires dans le cadre de prétendus «forfaits vacances» offerts par l’État. D’autres clones IA de célébrités comme Joe Rogan, Andrew Tate, et Oprah Winfrey, ont également été utilisés dans ces campagnes trompeuses.
Les vidéos deepfake utilisent souvent des extraits réels de célébrités suivis de messages frauduleux, créant ainsi une confusion chez les spectateurs. Ces publicités redirigent vers des sites proposant de fausses aides gouvernementales, une arnaque déjà signalée par le ministère de la Santé et des Services sociaux des États-Unis.
Malgré la facilité de repérer ces escroqueries, comme l’a démontré un étudiant ayant identifié plus de 16 000 annonces frauduleuses, YouTube et Google semblent peu réactifs, continuant à générer des revenus publicitaires de ces entreprises douteuses. Ce laxisme soulève des inquiétudes quant à la capacité et la volonté de Google de protéger ses utilisateurs.
Cette situation met en lumière un aspect sombre de l’intelligence artificielle générative : sa capacité à produire en masse des contenus de mauvaise qualité et trompeurs. Alors que l’IA a le potentiel de révolutionner de nombreux secteurs, son utilisation malveillante dans ces escroqueries souligne la nécessité d’une vigilance accrue et d’une régulation efficace pour protéger les utilisateurs et maintenir l’intégrité des plateformes en ligne.
Il est également essentiel que les utilisateurs cessent de croire naïvement à tout ce qu’ils voient en ligne, 7 jours sur 7, 365 jours par an.