
Compte tenu de l’hystérie de masse qui s’est déchaînée dans le monde avec l’intelligence artificielle (IA), peu parlent des dangers, même si cela représente un risque croissant pour les utilisateurs de bitcoin (BTC) et d’autres crypto-monnaies qui opèrent sur les échanges.
Les fraudeurs utilisent de plus en plus les outils de IA pour créer faux faux csur ceux qui cherchent à contourner la vérification KYC (Connaissez votre client) des maisons de change. Ceci est mis en garde par Jimmy Su, directeur de la sécurité chez Binance, l’échange de crypto-monnaie avec le plus grand volume d’échanges au monde.
« L’escroc recherchera sur Internet une photo normale de la victime. Sur cette base, il peut produire des vidéos en utilisant des outils de falsification profonde pour échapper à la vérification », a déclaré Su, selon un article de Cointelegraph.
Détaillant le modus operandi utilisé par les escrocs, Su ajoute que Les outils d’IA sont devenus si sophistiqués qu’ils peuvent même répondre aux instructions fichiers audio conçus pour vérifier que le demandeur est humain. En fait, il existe déjà des logiciels qui peuvent le faire en temps réel.
« Par exemple, cela oblige l’utilisateur à cligner de l’œil gauche ou à regarder à gauche, à droite, en haut ou en bas. Les deepfakes sont maintenant si avancés qu’ils peuvent réellement exécuter ces commandes », a ajouté le chef de la sécurité.
Su a ajouté que si l’IA devient plus avancée, « elle n’est pas encore au niveau où elle peut tromper un opérateur humain » car elle n’est pas indiscernable de la réalité.
David Schwed, le COO de la société de sécurité blockchain Halborn suggère que un moyen utile de détecter rapidement un deepfake est d’observer lorsque le sujet clignote. Si cela ne semble pas naturel, il s’agit très probablement d’une vidéo trafiquée avec une intention frauduleuse.
Cela est dû au fait que les vidéos deepfake sont générées à l’aide de fichiers image obtenus sur Internet, où le sujet aura généralement les yeux ouverts, explique Schwed. Par conséquent, dans un deepfake, le clignement des yeux du sujet doit être simulé.
Une autre formule que les utilisateurs peuvent mettre en œuvre pour éviter les deepfakes est d’améliorer la confidentialité et l’anonymat, bien que curieusement ces mesures de sécurité entrent en conflit avec l’utilisation d’échanges centralisés qui mettent en œuvre des procédures KYC.
Méfiez-vous des deppfakes de crypto-pêche
La société de sécurité Kaspersky met également en garde contre les deepfakes pour réaliser diverses escroqueries, comme la fraude à la crypto-monnaie, ou le contournement de la sécurité biométrique.
Dans certains cas, les escrocs utilisent des images de célébrités ou mixent d’anciennes vidéos pour faire des diffusions en direct sur les réseaux sociaux. En eux, ils montrent une page prédéfinie dans laquelle demander aux victimes de transférer un certain montant en crypto-monnaie, promettant qu’ils doubleront tout paiement qui leur sera envoyé. En conséquence, les victimes de ces escroqueries perdent la totalité du montant transféré.
Compte tenu de cela, Kaspersky recommande de rester vigilant face aux menaces liées aux deepfakes pour éviter d’en être victime. Dans ce sens suggère d’être attentif aux mouvements brusques qui se produisent dans les vidéos.
Certains de ces changements soudains sont des changements d’éclairage d’une image à l’autre, des changements dans le teint de la peau des personnes, un scintillement étrange ou pas de scintillement du tout. Il recommande également de rechercher la parole synchronisée sur les lèvres, les artefacts numériques dans l’image, ainsi que les vidéos codées intentionnellement en basse qualité et sous un mauvais éclairage.
En revanche, il est conseillé de rester sceptique vis-à-vis des messages vocaux et des vidéos, ce qui ne garantira pas que les gens ne seront jamais dupes, mais cela peut aider à éviter bon nombre des écueils les plus courants. Tout d’abord, le mieux sera de vérifier avant de faire confiance, points Kaspersky.