Openai surveille la situation, mais pas encore trop inquiet
Facepalm: Lorsque Chatgpt n'est pas utilisé pour générer ces images virales inspirées du studio Ghibli inondant vos flux, il peut être exploité sur de faux reçus à la place. Le chatbot AI est enfin assez décent pour comprendre et générer du texte dans des images que les utilisateurs astucieux ont réalisé qu'il pourrait produire de faux reçus. Ceux-ci pourraient alors passer facilement comme une preuve d'achat légitime à un ensemble d'yeux sans méfiance.
Jusqu'à récemment, les images générées par l'AI avaient une faiblesse flagrante – un texte brouillé ou absurde. De nombreux modèles ont réussi à résoudre des problèmes tels que les mains gâchées au point où ils ne sont même plus un problème. Mais le texte est resté un peu un talon d'Achille. Cela change rapidement, cependant.
Par exemple, en suivant la dernière mise à jour de la génération d'images de ChatGPT sur son modèle 4O, les utilisateurs peuvent cracher des reçus avec un formatage presque parfait, des listes détaillées et même des logos réalistes. Bien sûr, ils ne sont toujours pas complètement impeccables et peuvent avoir l'air trop nets, avoir du texte avec un espacement étrange et même des erreurs mathématiques.
Je pense que dans l'image originale, les lettres sont trop parfaites et elles ne se penchent pas avec le papier. Ils ressemblent à planer au-dessus du papier. Voici ma tentative de le rendre plus réaliste. Faites-moi savoir ce que vous pensez. pic.twitter.com/eixrshubey
– Michael Gofman (@michaelgofman) 29 mars 2025
Cependant, les reçus – en particulier pour les petites quantités – ne sont pas souvent examinés trop fortement. Quelques ajustements supplémentaires dans Photoshop, comme l'ajout de taches, pourraient facilement tromper un employeur. Le gain est évident pour les escrocs. Tout ce qu'ils avaient à faire est de passer quelques minutes à utiliser Chatgpt et Photoshop, et même si l'astuce ne fonctionne qu'occasionnellement, c'est toujours un schéma à faible effort et à forte récompense.
À l'heure actuelle, la méthode la plus efficace pourrait être de nourrir un reçu existant pour chatter et de modifier des détails tels que les prix ou les dates. Mais à mesure que la technologie s'améliore, les reçus entièrement fabriqués pourraient devenir indiscernables de réels.
On pourrait penser que tout cela sonnerait l'alarme au siège d'Openai, mais bien que l'entreprise ait reconnu le risque, il n'appuie pas encore sur le bouton de panique. Un porte-parole de l'entreprise a expliqué à Techradar qu'il suit la génération d'images sur et hors de sa plate-forme, utilise des outils internes pour vérifier le contenu créé par l'IA et prend des mesures lorsque des violations des politiques d'utilisation se produisent.
Fait intéressant, Openai voit également un avantage de cette capacité. La porte-parole Taya Christianson a suggéré à TechCrunch que de faux reçus pourraient être utilisés pour une éducation financière en enseignant aux gens comment suivre les dépenses ou piller la fraude dans un cadre contrôlé.
Pourtant, il faut se demander si cette capacité se traduit par un positif net pour la société.