L’affaire du faux Brad Pitt : l’IA au service de l’arnaque
Par Sacha Israël, journaliste pour LES CONNECTEURS | Publié le 13 février 2025
Et si Brad Pitt essayait de vous soutirer de l’argent en vous faisant miroiter l’espoir d’une histoire d’amour ? C’est ce qui est arrivé à Anne, une française de 53 ans, arnaquée en ligne par un faux Brad Pitt qui lui a extorqué 830 000 euros en utilisant des deepfakes, à des fins de manipulation émotionnelle. Des méthodes qui s’intensifient en lien avec l’émergence et les avancées exponentielles de l’IA. Comment la cybersécurité peut-elle endiguer ces dérives aux conséquences sociales alarmantes ?
Quand l’illusion devient réalité : l’arnaque aux deepfakes
Vous devez probablement vous souvenir de cette histoire qui a fait le tour du monde. Pendant un an et demi, Anne croit parler à Brad Pitt avec qui elle entretient des échanges fréquents, pensant avoir une relation amoureuse avec l’acteur. Tout bascule lorsqu’elle réalise s’être fait escroquer une somme de 830 000 euros. Une manipulation émotionnelle certes, mais qui s’est bâtie sur des images réalistes fabriquées de toutes pièces par l’intelligence artificielle.
Les deepfakes, aussi appelées hypertrucages, sont ce qui a éliminé tous les doutes d’Anne recevant régulièrement des images de Brad Pitt, certaines tenant des mots d’amour signés à son nom, ou d’autres le plaçant sur une table d’opération pour un présumé cancer du rein.
« L’hypertrucage met à profit les algorithmes d’apprentissage automatique pour insérer des visages et des voix dans des enregistrements vidéo et audio de personnes réelles, et permet la création d’impostures réalistes. »
– Définition de l’hypertrucage du Parlement du Canada
Cette pratique, qui se développe au fil des années, pose de sérieuses questions sur la confiance du public envers les contenus partagés en ligne. Au-delà de simples publications présentes sur les réseaux sociaux, certains craignent également une désinformation médiatique comme cause à effet de l’explosion des hypertrucages.
Un sondage commandé par l’Autorité canadienne pour les enregistrements Internet en juillet 2024 révèle en effet que la moitié des Canadiens (51 %) se disent préoccupés par l’IA générative, tandis que seulement 17 % se déclarent enthousiastes à son égard. Parmi les préoccupations, 69 % des répondants mentionnent la contribution de l’IA à la diffusion d’images ou de vidéos truquées, et 67 % s’inquiètent de la désinformation.
Deepfake et outils d’IA : des armes de choix pour les cybercriminels
Julien Teste-Harnois, expert en cybersécurité, soutient que l’usage de ces outils permet aux arnaqueurs de « forcer les individus à commettre un acte » dont la technique repose sur le fait de faire croire des choses qui paraissent réelles. « Le problème, c’est que cela se développe vite. Les fraudeurs en profitent et le détournent de leur but de premier. » Ces outils, en pleine expansion dans le monde créatif, sont désormais détournés à des fins frauduleuses pour obtenir un gain financier, comme l’indique l’expert.
« Il n’y a pas vraiment d’outils qui peuvent voir si c’est faux en temps réel pour un très bon deepfake. Ce n’est pas encore au point. »
– Julien Teste-harnois, expert en cybersécurité et fondateur de Resolock
En matière de cybersécurité, les outils sont encore peu performants pour faire face à ces enjeux. Julien Teste-Harnois souligne notamment le décalage de progression entre l’IA qui avance à une vitesse folle, et les outils de cybersécurité qui parviennent avec difficulté à suivre ce rythme. « Il n’y a pas vraiment d’outils qui peuvent voir si c’est faux en temps réel pour un très bon deepfake. Ce n’est pas encore au point. »
Ce décalage est ainsi un levier considérable pour les arnaqueurs, dont les principales attaques consistent à demander des informations bancaires, à se faire passer pour des célébrités ou encore à demander des données personnelles pour des vols d’identité.
Des méthodes qui visent notamment des personnes vulnérables, influencées par le réalisme des deepfakes, mêlé à des promesses amoureuses d’un scénario bien monté.
Cybermenace : « le maillon faible a toujours été l’humain »
Ces utilisations de l’IA sont pourtant une méthode efficace et peu coûteuse comme l’affirme l’expert en cybersécurité, qui soutient également que n’importe qui peut passer par cette pratique sans être un « un grand pirate ». Une méthode qui s’avère d’autant plus efficace sur des proies particulièrement fragiles émotionnellement. « Le maillon faible a toujours été l’humain. » D’ailleurs, l’une des techniques connues les plus en vogue des brouteurs est l’arnaque aux sentiments.
Anne en est un exemple, où les escrocs ont su exploiter ses vulnérabilités pour la manipuler, comme elle l’a récemment révélé. Dans des entrevues accordées à des médias français, la quinquagénaire avoue notamment s’être confiée sur son divorce et son cancer, des éléments utilisés à l’avantage des arnaqueurs pour jouer sur la corde sensible. « Ils ont usé de mon humanité », a déclaré Anne dans un reportage de l’émission « Sept à Huit ».
Reconnaître un deepfake : démêler le vrai du faux
Entre peau trop lisse, mouvements asymétriques et traits du visage approximatifs, certains éléments peuvent facilement trahir une image fabriquée de toutes pièces. Pourtant, comme le souligne Julien Teste-Harnois, peu de personnes en parlent et donnent des astuces pour les reconnaître.
L’expert conseille notamment de faire des recherches lorsqu’une vidéo d’un propos de quelqu’un – notamment une personnalité publique – paraît quelque peu déroutant.
Anne a d’ailleurs été confrontée à ce cas de figure où un extrait d’un journal télévisé monté de toutes pièces, montrait une journaliste annonçant la relation de l’acteur avec Anne. « Il faut faire des recherches parce que si cette personne a vraiment dit cela, ce sera facilement trouvable par les médias qui relayent l’information », suggère Julien Teste-Harnois.
En 2022, 57% des consommateurs mondiaux pensaient d’ailleurs pouvoir détecter une vidéo deepfake, tandis que 43% estimaient ne pas être en mesure de faire la distinction entre une vidéo authentique et un deepfake.
L’expert préconise ainsi de développer certains réflexes pour l’usage de voix artificielle, comme raccrocher et rappeler, notamment lorsqu’il y a une demande de données personnelles au téléphone.
Cette affaire rappelle ainsi les conséquences parfois dramatiques des arnaques en ligne à l’ère actuelle, accentuées par des technologies grandement émergentes. Anne en est la preuve : à une époque où l’illusion devient indiscernable de la réalité, les escrocs n’ont plus besoin d’être physiquement présents pour piéger leurs victimes.