Uncategorized

Les voleurs ont utilisé la technologie Deepfake Voice pour réussir un braquage de banque de 35 millions de dollars – Review Geek

Les voleurs ont utilisé la technologie Deepfake Voice pour réussir un braquage de banque de 35 millions de dollars - Review Geek


Une photo d'un homme d'affaires portant un masque en plastique.
Elnur/Shutterstock

Selon un doc judiciaire obtenu par Forbes. C’est le braquage de « voix profondes » le in addition réussi à ce jour, même s’il ne s’agit peut-être que d’une petite partie d’une tendance croissante.

La technologie Deepfake est assez bien connue à ce stade. Fondamentalement, les gens forment une IA pour recréer le visage de quelqu’un, généralement le visage d’un acteur ou d’un autre individu bien connu. L’IA peut alors animer et coller ce visage sur une vidéo de référence, insérant ainsi le sujet cloné dans une scène.

Mais vous ne pouvez pas simplement coller quelqu’un dans une vidéo sans recréer sa voix. Et c’est là que les deepfakes audio entrent en jeu : vous entraînez une IA à reproduire la voix de quelqu’un, puis dites à l’IA quoi dire dans la voix de cette personne.

Une fois que la technologie deepfake atteindra un specified niveau de réalisme, les gurus pensent qu’elle conduira à une nouvelle ère de désinformation, de harcèlement et de redémarrages de films merdiques. Mais il semble que la technologie «voix profonde» ait déjà atteint le grand minute.

En 2020, un directeur de banque aux EAU a reçu un appel téléphonique du directeur d’une grande entreprise. Une grosse acquisition était en cours, selon le réalisateur, il avait donc besoin que la banque autorise 35 millions de dollars de virements vers plusieurs comptes américains. Le directeur a indiqué les e-mails d’un avocat pour confirmer le transfert, et comme tout semblait légitime, le directeur de la banque l’a fait passer.

Mais le « directeur » de cette entreprise était en fait un algorithme de « voix profonde » formé pour ressembler à sa victime. Les Émirats arabes unis demandent maintenant l’aide des États-Unis pour récupérer les fonds perdus, qui ont été passés en contrebande sur des comptes dans le monde entier par un groupe de 17 voleurs ou furthermore.

Ce n’est pas le premier casse audio deepfake, mais encore une fois, c’est le in addition réussi à ce jour. Des opérations similaires se produiront à l’avenir, probablement à une échelle beaucoup furthermore grande. Alors, que peuvent faire les entreprises et les gouvernements pour atténuer la menace ? Eh bien, c’est difficile à dire.

Parce que les deepfakes s’améliorent constamment, ils finiront par devenir trop convaincants pour que les humains les identifient correctement. Mais une IA formée peut être en mesure de détecter les deepfakes, auto les visages et les voix clonés contiennent souvent de petits artefacts et des erreurs, tels que du bruit numérique ou de petits sons impossibles à produire pour les humains.

Resource : Forbes



Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.