Faux magasins, Deepfakes et chatbots: AI alimente une nouvelle vague d'escroqueries
Bref: Il semble que une profession qui aime vraiment l'IA génératrice est celle du cybercriminal. Microsoft prévient que la technologie a évolué au point où la création d'une arnaque en ligne peut maintenant prendre des minutes plutôt que des jours ou des semaines et nécessite peu de connaissances techniques.
Dans sa dernière édition du rapport Cyber Signals, Microsoft écrit que l'IA a commencé à réduire le barreau technique pour les acteurs de fraude et de cybercriminalité à la recherche de leurs propres outils de productivité.
La gamme de cyber-escroqueries comme peut être utilisée est étendue. Les outils peuvent, par exemple, aider à créer des leurres d'ingénierie sociale en scannant et en grattant le Web pour créer des profils détaillés d'employés ou d'autres cibles.
Il existe également des cas de schémas de fraude complexes qui utilisent des avis de produits améliorés en AI et des vitrines générées par l'IA, avec des escrocs créant des sites Web simulés entiers et de fausses marques de commerce électronique, avec des histoires commerciales fabriquées et des témoignages clients. Les escrocs peuvent même utiliser l'IA pour les chatbots de service client qui peuvent mentir sur les frais inexpliqués et autres anomalies.
Il est signalé depuis longtemps que l'avancement de la technologie DeepFake en fait un outil populaire pour les escrocs. Nous l'avons vu auparavant pour créer de fausses mentions de célébrités, se faire passer pour des amis et des membres de la famille et, comme le note Microsoft, pour les entretiens d'embauche – à la fois embauchés et postulées – menés par des appels vidéo. La société note que les retards de synchronisation des lèvres, la parole robotique ou les expressions faciales étranges sont des signes de cadeaux selon lesquels la personne à l'autre bout d'un appel vidéo pourrait être unfake profond.
Microsoft recommande aux consommateurs de se méfier des transactions à durée limitée, des minuteries de compte à rebours et des critiques suspectes. Ils devraient également recouper les noms de domaine et les révisions avant d'effectuer des achats, et éviter d'utiliser des méthodes de paiement qui manquent de protection contre la fraude, telles que les transferts bancaires directs et les paiements de crypto-monnaie.
Les escroqueries de support technologique sont également en augmentation. Bien que l'IA ne joue pas toujours un rôle dans ces incidents, les escrocs de soutien technologique prétendent souvent être un soutien informatique légitime des sociétés bien connues et utilisent des tactiques d'ingénierie sociale pour gagner la confiance de leurs objectifs.
L'outil d'assistance rapide Windows, qui permet à quelqu'un d'utiliser une connexion distante pour afficher un écran ou le reprendre pour résoudre les problèmes, est régulièrement utilisé dans ces escroqueries. En tant que tel, Microsoft ajoute des avertissements à une aide rapide et oblige les utilisateurs à cocher une case reconnaissant les implications de sécurité du partage de leur écran. Microsoft recommande également d'utiliser une aide à distance au lieu d'une assistance rapide pour le support technologique interne.
Bien que le Post se concentre sur les dangers des escroqueries en IA, il note également que Microsoft continue de protéger ses plateformes et ses clients contre les cybercriminels. Entre avril 2024 et avril 2025, Microsoft a arrêté pour 4 milliards de dollars de tentatives de fraude, rejeté 49 000 inscriptions aux partenariats frauduleux et bloqué environ 1,6 million de tentatives d'inscription de bot par heure.