
Le développement de la technologie deepfake est une menace sérieuse pour le processus de vérification des utilisateurs des échanges cryptographiques (KYC) et l’un des problèmes clés pour les plateformes de trading. Cette opinion a été exprimée par le chef du département de sécurité de Binance, Jimmy Su. Les fausses vidéos en direct de personnes pourraient bientôt devenir indiscernables de la réalité, même pour la personne qui authentifie l’identité via le processus KYC. En conséquence, la gestion des échanges peut, en théorie, s’attendre à des problèmes. Parlons de ce qui se passe plus en détail.
A noter que le sujet de la technologie deepfake et de l’intelligence artificielle en général a été commenté la veille par le patron de Galaxy Digital et milliardaire Mike Novogratz. Selon lui, les autorités doivent avant tout avoir peur de l’IA et ne pas créer de problèmes pour l’industrie des actifs numériques.
Novogratz a expliqué son point de vue principalement par la soi-disant crise d’identité due aux fausses vidéos utilisant l’intelligence artificielle. Ce dernier vous permet simplement de créer de fausses vidéos, photos et audio, qui peuvent nuire à l’humanité non seulement dans le cadre des échanges de crypto-monnaie.
Mike Novogratz, PDG de Galaxy Digital
Par exemple, une fausse vidéo de haute qualité avec une célébrité comme des présidents ou des entrepreneurs bien connus peut affecter le marché boursier et l’effondrer. Et comme Elon Musk vend désormais des « badges bleus » d’identités vérifiées sur Twitter à droite et à gauche, cela aide encore plus les escrocs.
Pourtant, les utilisateurs de ce réseau social font historiquement davantage confiance aux comptes officiels. Et maintenant, de tels comptes avec seulement quelques abonnés, hélas, suffisent.
Problèmes d’échanges de crypto-monnaie
Les deepfakes sont créés à l’aide d’outils d’intelligence artificielle qui utilisent l’apprentissage automatique pour créer des sons, des images ou des vidéos convaincants où il y a une ressemblance humaine. En général, la technologie ne viole pas la loi, mais elle est déjà activement utilisée par les attaquants. De plus, selon les experts, à l’avenir, la situation ne fera qu’empirer.
Dans une interview avec Cointelegraph, Jimmy Su a déclaré que l’échange constate une augmentation du nombre d’escrocs qui tentent de contourner le processus KYC sur l’échange en utilisant des deepfakes. Voici une citation pertinente d’un employé de la plateforme.
Un pirate peut trouver une photo ordinaire de la victime quelque part sur Internet. Sur cette base, en utilisant la technologie deepfake, il pourra créer une vidéo avec le visage d’une personne pour confirmer son identité sur l’échange.
Pour illustrer la situation actuelle, faites attention à la vidéo suivante. Ici, le deepfake passe avec succès la vérification d’identité, c’est-à-dire, en fait, trompe le fournisseur de services KYC. Comme l’ont noté les auteurs de la vidéo, ils testé dix plateformes de vérification d’identitéet tous étaient vulnérables à ce problème.

Rappelons que la procédure KYC est obligatoire pour la grande majorité des échanges crypto, et Binance a été l’un des premiers à introduire la vérification d’identité obligatoire à l’été 2021. De manière générale, cette décision fait partie des exigences des régulateurs qui luttent contre le blanchiment d’argent. dans l’industrie de la cryptographie.
À première vue, KYC sur Binance est presque impossible à passer pour un étranger, mais les deepfakes peuvent changer les choses. Voici la réplique correspondante de Su.
Certaines vérifications demandent à l’utilisateur, par exemple, de cligner de l’œil gauche ou de regarder à gauche ou à droite, de regarder vers le haut ou vers le bas. L’intelligence artificielle est suffisamment avancée pour exécuter réellement ces commandes.
Опять же, это подтверждает представленный сверху ролик.
Pour l’œil humain, les deepfakes sont toujours perceptibles – ils peuvent être identifiés par d’étranges mouvements d’expressions faciales et d’autres «artefacts». Dans cet esprit, les employés de l’entreprise qui vérifient le processus d’identification d’un individu peuvent éliminer les intrus. Cependant, la technologie continue d’évoluer, il deviendra donc de plus en plus difficile de distinguer les fausses vidéos de la réalité au fil du temps. Voici la citation de Jimmy sur le sujet.
En regardant ces vidéos, il y a certains points que nous pouvons détecter avec l’œil humain. L’intelligence artificielle s’améliorera avec le temps et corrigera les inexactitudes. Nous ne pouvons donc pas toujours compter sur les gens.

Les deepfakes peuvent être utilisés pour plus que du divertissement
En août 2022, le directeur des communications de Binance, Patrick Hillmann, a déclaré que l’équipe de piratage avait utilisé ses interviews précédentes pour créer un deepfake. La « fausse version » de Hillmann a ensuite été utilisée pour animer des conférences Zoom avec diverses équipes de startups crypto. Les attaquants leur ont promis la possibilité de lister leurs pièces sur Binance – bien sûr, pour un certain montant.
А это ещё один вариант применения передовых технологий для обмана людей. Можно предположить, что способы кражи денег с помощью дипфейка ограничены разве что фантазией преступника.

Interface de l’application Twitter
Мы считаем, что дипфейк действительно может создать проблемы для криптовалютных бирж, которые в случае подтверждения поддельной личности могут получить штраф — особенно если автор обмана находится в подсанкционном регионе. Так что не исключено, что в будущем любителей криптовалют будет ждать более тщательная процедура KYC. Также не стоит забывать о перспективах появления более изощрённых обманов в интернете, которые будут задействовать образы знаменитостей.
Que pensez-vous de ce qui se passe ? Partagez votre opinion dans notre chat crypto d’anciens riches, dont les membres essaient activement d’attendre un nouveau bullrun sur le marché des pièces.
ABONNEZ-VOUS À NOTRE CANAL TÉLÉGRAMME. VOICI PLUS DE NOUVELLES INTÉRESSANTES.