Jour après jour, alors que le monde numérique continue de se développer, les cyberarnaques et les fraudes suivent également le rythme de la technologie et donc en hausse. Et avec intelligence artificielle (L’IA) étant le dernier engouement dans le monde de la technologie, les fraudeurs financent de nouvelles façons de l’utiliser à leur avantage.
Un homme du Kerala perd 40 000 roupies à cause d’une arnaque Deepfake
Un cas de ce type a récemment été révélé. PS Radhakrishnan, un résident de Kozhikode au Kerala, perdu Rs 40 000 après que des cybercriminels ont utilisé une fausse technologie d’IA et se sont fait passer pour un ancien collègue lors d’un appel vidéo WhatsApp et cherchait de l’argent pour l’opération de sa sœur.
Radhakrishnan a d’abord reçu un appel d’un numéro anonyme, qu’il a ignoré. Puis plus tard, il a trouvé plusieurs messages du même numéro sur son WhatsApp, la personne s’identifiant comme étant son ancien collègue chez Coal India Ltd.
« Nous avons travaillé ensemble pendant près de quatre décennies et je le connaissais bien. La photo affichée était sa photo. Il a posé des questions sur ma fille et où elle travaillait. Nous avons envoyé des SMS pendant un certain temps au cours desquels il a partagé ses photos de famille et a posé des questions sur nos collègues communs. « , a déclaré Radhakrishnan, selon le rapport HT.
Après un certain temps, la victime a reçu un appel vocal du même numéro. L’appelant a déclaré qu’il se trouvait actuellement à l’aéroport de Dubaï, attendant d’embarquer sur un vol à destination de l’Inde.. Il a demandé une faveur financière car sa belle-sœur devait subir une intervention chirurgicale d’urgence dans un hôpital de Mumbai et une somme de 40 000 ₹ devait être payée d’urgence. comme avance. Il a déclaré que l’argent devait être transféré via UPI sur le téléphone de quelqu’un qui l’accompagnait à l’hôpital de Mumbai.
Le fonctionnaire à la retraite voulait être doublement sûr de ne pas se laisser tromper. Immédiatement, le l’homme a dit qu’il passerait un appel vidéo immédiatement.
Lisez aussi : Un commerçant de crypto victime d’une arnaque perd 650 000 $ en seulement deux secondes
Un fraudeur s’est fait passer pour le visage de la Ligue des victimes
« Quelques secondes plus tard, il a appelé et ressemblait exactement à mon ancien collègue. Même si seul son visage était visible, c’était clair. Ses lèvres et ses yeux bougeaient comme n’importe quelle personne normale pendant que nous parlions en anglais. L’appel n’a duré que 25 secondes avant d’être interrompu. Il est ensuite revenu sur un appel vocal et a parlé de l’urgence d’avoir de l’argent. Je n’ai plus posé de questions et j’ai transféré l’argent », indique le rapport.
Quelques minutes plus tard, le même homme a rappelé et a demandé Rs 35 000 pour prendre en charge les frais d’hospitalisation. Le Kérala L’homme est devenu méfiant en disant : « Il y avait un ton précipité dans sa voix et j’ai menti en disant que mon compte n’avait pas un solde suffisant.
Radhakrishnan alors a appelé son ancien collègue sur le numéro qu’il avait enregistré plus tôt dans sa liste de contacts, et son ancien collègue a déclaré qu’il ne l’avait jamais appelé. Il s’est alors rendu compte qu’il avait été trompé par un escroc qui, selon la police, était impliqué dans un deep-fake. arnaque impliquant quelqu’un que l’homme connaissait.
Comment se produisent les fausses escroqueries ?
Basé sur l’IA Les faux appels profonds sont un type d’arnaque qui utilise l’intelligence artificielle pour créer de fausses vidéos ou de faux audios. enregistrements de personnes. Les fraudeurs peuvent créer ces appels en se faisant passer pour un ami de confiance, un membre de la famille ou un collègue pour inciter la victime à divulguer des informations personnelles ou de l’argent et ainsi se faire arnaquer.
Les deepfakes peuvent être considérés comme la réponse du 21e siècle au photoshopping. Les deepfakes utilisent une forme d’intelligence artificielle appelée apprentissage profond pour créer des images de faux événements, d’où le nom de deepfakes, selon le rapport du Guardian.
La technologie Deepfake peut créer à partir de zéro des photos et des vidéos convaincantes mais entièrement fictives. Même les audios peuvent également être truqués en profondeur, pour créer des « skins vocaux » ou des « clones vocaux » de n’importe qui.