Des inconnus ont publié le deepfake de Zelensky avec un appel à « déposer les armes »

Temps de lecture :1 Minutes, 55 Secondes

Le 16 mars 2022, une fausse vidéo du président ukrainien Volodymyr Zelensky a circulé sur les réseaux sociaux, dans laquelle le chef de l’État « appelle le peuple à se rendre ». Il est rapporté par Sky News.

Les internautes ont rapidement identifié le faux en raison de sa mauvaise qualité. Dans le clip, la tête de Zelenskiy est trop grande pour le corps auquel elle est attachée numériquement. Dans certains cadres, il est éclairé différemment et est situé à un angle non naturel, ont noté les internautes.

Réduisez vos frais d’échanges
Les frais d’échanges peuvent représenter plusieurs centaines de dollars chaque année. Pour cette raison, les bons tradeurs cherchent à les réduire car ils peuvent impacter fortement leurs résultats. Vous aussi vous pouvez le faire grâce aux liens ci-dessous :

Il existe également un niveau de pixellisation plus élevé autour de la tête par rapport au corps.

Arrêt sur image d’une fausse vidéo. Données : SkyNews.

De plus, sur la fausse vidéo, la voix de Zelensky s’est avérée plus profonde et plus lente que son discours normal.

Le vrai Zelensky a qualifié la vidéo de « provocation enfantine » et a nié toutes les déclarations qui y étaient faites.

Simultanément à l’apparition de la vidéo, des pirates inconnus ont piraté la ligne de défilement de la chaîne de télévision Ukraine 24, qui répétait les thèses de la fausse vidéo.

Plus tard dans la soirée, des représentants de la société Meta ont annoncé avoir supprimé tous les deepfakes du président de leurs sites.

« Nos équipes ont découvert et supprimé une vidéo deepfake du président Zelensky faisant une déclaration qu’il n’a jamais faite. Il est apparu sur un site Web prétendument piraté, puis s’est répandu sur Internet », a déclaré Nathaniel Gleicher, responsable de la politique de sécurité chez Meta.

Plus tôt, le Centre pour les communications stratégiques et la sécurité de l’information de l’Ukraine a mis en garde contre l’apparition possible de deepfakes du président.

Rappelons qu’en février, une fausse vidéo d’un candidat à la présidentielle a été créée en Corée du Sud pour attirer l’attention des jeunes sur les élections.

En janvier, la Chine a proposé une procédure de régulation des deepfakes.

Abonnez-vous aux actualités de ForkLog sur Telegram : ForkLog AI – toutes les actualités du monde de l’IA !

Vous avez trouvé une erreur dans le texte ? Sélectionnez-le et appuyez sur CTRL + ENTRÉE



Voir l’article original sur forklog.com