Ces dernières Deepfakes de célébrités démontrent l’avancée des escroqueries

Depuis la création du web, un sage conseil est toujours resté d’actualité : « Ne croyez pas tout ce que vous voyez sur Internet ». Qu’il s’agisse d’un blog personnel, d’un tweet, d’une vidéo YouTube ou d’un TikTok, n’importe qui peut dire n’importe quoi en ligne, il est difficile de savoir s’ils ont raison (ou même s’ils disent la vérité).

Cependant, nous vivons un moment important pour la littératie sur Internet : l’AI générative est arrivée à un point inquiétant, avec une technologie suffisamment bonne pour imiter l’apparence de célébrités et faire dire à ces « clones » ce qu’ils veulent. Pour ceux qui sont dans le savoir, ces deepfakes peuvent ne pas être convaincants encore, mais qu’en est-il de l’utilisateur moyen des réseaux sociaux ? Il semble que nous approchions rapidement d’un point où le grand public commencera à croire que ces vidéos frauduleuses sont réelles, et c’est une pensée effrayante.

Il y a trois exemples notables de cela juste cette dernière semaine. Le premier est Tom Hanks : L’acteur a posté une capture d’écran sur son Instagram d’une vidéo promouvant un « plan dentaire », avec un porte-parole qui ressemble à Tom Hanks si il avait fait refaire ses dents. La vidéo elle-même ne semble pas être publique, et Hanks ne l’a pas partagée ni le nom de la société qui la promouvait. Mais l’hypothèse est qu’une entreprise ou une personne a créé un deepfake de Tom Hanks pour vendre un produit dentaire. Comme je l’ai mentionné, en regardant bien l’image, vous pouvez déjà dire qu’il y a quelque chose de « bizarre » sur son visage, et si nous avions pu voir la vidéo, il est probable que le mouvement aurait l’aspect figé et troublant de l’uncanny valley que de nombreux deepfake AI ont.

Mais M. Hanks était loin d’être la seule célébrité cette semaine à faire face à un problème de deepfake. Gayle King, une des présentatrices du CBS Mornings, a posté un deepfake sur son compte Instagram, affirmant que les gens lui envoient sans cesse la vidéo et qu’elle n’a rien à voir avec ça. Cette fois, elle a partagé la vidéo originale sur laquelle le deepfake est basé, une vidéo innocent de King discutant de la venue de Bruce Springsteen sur son show:

Les observateurs attentifs seront capables de dire que la première vidéo est fausse : Les mouvements des lèvres ne correspondent pas à l’audio, et bien que l’audio ressemble à la voix de King, il est trop rigide, comme si elle prétendait être une mauvaise actrice en lisant un script. Je suis sûr que ceux d’entre nous qui sont attentifs à ces limitations des deepfakes et de l’IA générative remarqueront tout de suite les signes révélateurs, mais je ne suis pas convaincu que tout le monde verra cela comme immédiatement faux.

  Fatal-Error.net Problème Informatique: Comment Je l'ai Résolu

Troisièmement, la sensation internet M. Beast est actuellement en train de faire le buzz pour une publicité deepfake qui est montrée aux utilisateurs de TikTok, moi y compris. Dans cette publicité, « Mr. Beast » félicite le spectateur d’être parmi les 10 000 utilisateurs sélectionnés pour gagner un iPhone 15 Pro pour seulement deux dollars. Vous avez de la chance !

La vidéo en question est l’une des meilleures que j’ai vu, bien qu’elle ait aussi ses évidents défauts. Celui qui a fait cette vidéo a pris soin de faire en sorte que Mr. Beast semble plus expressif lorsqu’il parle, dans le but de rendre toute l’interaction plus naturelle. Je pense que cela pourrait être efficace pour certains, mais, encore une fois, ce n’est pas à 100%. Regarder la vidéo en sachant qu’elle est fausse fait ressortir toutes les imperfections.

Même si vous pensez qu’il est évident que ces exemples sont faux, comme Marques Brownlee le dit, c’est le pire que cette technologie va être. Les deepfakes ne vont faire que s’améliorer, en visant l’objectif ultime d’être indiscernable d’une vraie vidéo.

Si vous avez aimé l’une des reprises de chansons AI qui font le buzz sur Internet, vous savez à quel point la technologie est en train de s’améliorer. L’acteur vocal de Plankton de Spongebob devrait à juste titre être préoccupé par la qualité de ces reprises, comme la reprise de Plankton de Beggin. Frank Sinatra peut être mort quand Dua Lipa avait deux ans, mais cette reprise de lui chantant Levitating est super.

Cette technologie peut même traduire votre discours et le doubler en temps réel, dans votre voix. Bien qu’il existe une multitude d’applications avec cette capacité, même Spotify la teste pour traduire les podcasts avec les voix des animateurs.

À ce stade, les meilleurs deepfakes sont uniquement audio, et même là ils ont encore des problèmes de précision. Mais qu’arrive-t-il lorsqu’un mauvais acteur peut faire une fausse publicité de Mr. Beast que la plupart des gens croiront ? Imaginez un Mr. Beast vraiment convaincant disant directement aux fans jeunes et impressionnables, « Tout ce que vous avez à faire pour participer à mon giveaway est d’entrer vos informations bancaires, pour que je puisse vous envoyer directement les gains. » Peut-être que le « concours » se tiendra à l’intérieur d’une « application Mr. Beast », qui installe en réalité un malware sur votre appareil.

  Différence entre MIG et TIG : Ce qu'il faut savoir

Bien sûr, il y a des scénarios plus effrayants à envisager. Nous nous approchons d’une élection présidentielle l’année prochaine. À quel point la technologie deepfake sera-t-elle bonne d’ici novembre 2024 ? Quelqu’un ouvrira-t-il TikTok avant d’aller voter pour regarder un deepfake de Joe Biden disant que son objectif ultime est d’emprisonner ses adversaires politiques ? Ou peut-être une de Donald Trump disant à ses partisans de se présenter armés aux urnes ?

Soyez vigilant lorsque vous regardez des vidéos en ligne

Les entreprises de médias sociaux ont besoin d’être plus proactives pour attaquer ces fausses vidéos avant qu’elles ne se propagent à d’autres, mais nous avons aussi un rôle à jouer dans tout cela. Nous devons être prudents, plus que jamais, lorsque nous naviguons et cliquons sur ce vaste internet à nous. Le simple fait de voir une vidéo d’une « célébrité » disant quelque chose, ou approuvant un produit, ne signifie pas que c’est réel, pas à l’heure actuelle. Vérifiez minutieusement le compte sur lequel elle est postée : s’il s’agit de la véritable personnalité, son compte devrait être vérifié (à moins que nous parlions d’une plateforme inutile comme X, auquel cas tous les messages devraient être considérés comme faux jusqu’à preuve du contraire).

Pendant que nous attendons que les deepfakes deviennent vraiment bons, il y a encore beaucoup de signes avant-coureurs qui vous indiquent quand quelque chose est illégitime. Les mouvements des yeux et de la bouche semblent étranges, pour commencer. Regardez cette vidéo de Mr. Beast : Bien qu’ils aient essayé de le rendre expressif, ses yeux sont plutôt vides pendant cette première moitié du clip. Et même si ils ont bien coordonné les mouvements des lèvres, beaucoup de deepfakes ne sont pas encore bons à cela.

Beaucoup de ces vidéos apparaissent en très mauvaise qualité aussi. C’est because augmenter la résolution révèle l’aspect bancal de la vidéo. Les deepfakes reposent sur une vraie vidéo d’une personne, que cette personne soit une célébrité ou non, puis superposent le visage de la célébrité sur cette vidéo et la manipule comme ils le souhaitent. Il est assez difficile de le faire en haute résolution sans problèmes de fusion, donc vous voyez des couches s’entrechoquer.

Une bonne dose de scepticisme est très utile sur Internet. Maintenant que l’IA générative prend le dessus, augmentez le scepticisme aussi fort que vous le pouvez.

Laisser un commentaire