La phrase « la technologie est une arme à double tranchant » vient de trouver une nouvelle illustration : les escrocs utilisent l’IA pour usurper des visages et arnaquer de l’argent, mais les victimes peuvent aussi compter sur l’IA pour se sauver.
Un cas ahurissant vient d’être révélé dans la baie de San Francisco. Une femme a fait la connaissance d’un « petit ami » sur un réseau social. L’homme se présentait comme un expert des investissements cryptos. Après plusieurs mois de discussions et une relation bien installée, il a commencé à lui recommander une soi-disant « plateforme d’investissement interne ». Une série de captures d’écran falsifiées montrant des profits lui a été envoyée, et la femme s’est laissé convaincre. Elle a d’abord investi 15 000 dollars pour tester, puis a retiré 490 000 dollars de sa retraite, et enfin elle a même hypothéqué sa maison pour 300 000 dollars. L’argent a été transféré en plusieurs fois vers des comptes en Malaisie, puis la plateforme a commencé à se volatiliser : pour retirer de l’argent ? Il fallait d’abord payer des frais. Compte bloqué ? Il fallait encore verser de l’argent pour le débloquer. Un scénario classique d’arnaque dite « abattage de cochons », pour un préjudice total proche du million de dollars.
C’est là que tout change. Bien que prise au piège, la femme n’avait pas encore perdu tout espoir. Elle a rassemblé toutes ses conversations avec le « petit ami » et les captures d’écran de la plateforme, et les a envoyées à ChatGPT avec une simple question : « Cette histoire tient-elle la route ? »
La réponse de l’IA a été sans détour : une arnaque typique mêlant « romance et investissement crypto ». Les escrocs instaurent d’abord une dépendance affective, puis tirent parti de l’anonymat et de la dimension transfrontalière des cryptomonnaies pour déplacer les fonds, et enfin créent l’illusion de profits via une fausse plateforme. ChatGPT n’a pas seulement dévoilé la méthode, il a aussi listé plusieurs signaux d’alerte : domaine de la plateforme récemment enregistré, réponses du service client stéréotypées, règles de retrait qui changent sans arrêt.
Le comble de cette histoire, c’est que les escrocs ont peut-être utilisé l’IA pour générer leurs discours, mais la victime s’est aussi servie de l’IA pour démasquer l’arnaque. Certes, l’argent ne sera pas retrouvé, mais au moins elle a pu limiter les dégâts et ne pas s’enfoncer davantage.
En fin de compte, la technologie n’a pas de parti pris. Un couteau peut couper des légumes ou blesser quelqu’un, l’IA peut servir à embobiner comme à protéger. La prochaine fois qu’on vous propose un « investissement sûr et sans risque », demandez donc d’abord à ChatGPT – c’est bien plus fiable que de demander à une amie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
19 J'aime
Récompense
19
8
Reposter
Partager
Commentaire
0/400
BTCBeliefStation
· Il y a 5h
L'argent est parti, l'IA pour aider
Voir l'originalRépondre0
CryptoNomics
· Il y a 12h
L'IA sauve les idiots.
Voir l'originalRépondre0
TokenAlchemist
· 12-09 04:50
Lutte intelligente contre la fraude avec l'IA
Voir l'originalRépondre0
LiquidatedTwice
· 12-09 04:46
Toutes les pertes sont dans les frais de scolarité.
La phrase « la technologie est une arme à double tranchant » vient de trouver une nouvelle illustration : les escrocs utilisent l’IA pour usurper des visages et arnaquer de l’argent, mais les victimes peuvent aussi compter sur l’IA pour se sauver.
Un cas ahurissant vient d’être révélé dans la baie de San Francisco. Une femme a fait la connaissance d’un « petit ami » sur un réseau social. L’homme se présentait comme un expert des investissements cryptos. Après plusieurs mois de discussions et une relation bien installée, il a commencé à lui recommander une soi-disant « plateforme d’investissement interne ». Une série de captures d’écran falsifiées montrant des profits lui a été envoyée, et la femme s’est laissé convaincre. Elle a d’abord investi 15 000 dollars pour tester, puis a retiré 490 000 dollars de sa retraite, et enfin elle a même hypothéqué sa maison pour 300 000 dollars. L’argent a été transféré en plusieurs fois vers des comptes en Malaisie, puis la plateforme a commencé à se volatiliser : pour retirer de l’argent ? Il fallait d’abord payer des frais. Compte bloqué ? Il fallait encore verser de l’argent pour le débloquer. Un scénario classique d’arnaque dite « abattage de cochons », pour un préjudice total proche du million de dollars.
C’est là que tout change. Bien que prise au piège, la femme n’avait pas encore perdu tout espoir. Elle a rassemblé toutes ses conversations avec le « petit ami » et les captures d’écran de la plateforme, et les a envoyées à ChatGPT avec une simple question : « Cette histoire tient-elle la route ? »
La réponse de l’IA a été sans détour : une arnaque typique mêlant « romance et investissement crypto ». Les escrocs instaurent d’abord une dépendance affective, puis tirent parti de l’anonymat et de la dimension transfrontalière des cryptomonnaies pour déplacer les fonds, et enfin créent l’illusion de profits via une fausse plateforme. ChatGPT n’a pas seulement dévoilé la méthode, il a aussi listé plusieurs signaux d’alerte : domaine de la plateforme récemment enregistré, réponses du service client stéréotypées, règles de retrait qui changent sans arrêt.
Le comble de cette histoire, c’est que les escrocs ont peut-être utilisé l’IA pour générer leurs discours, mais la victime s’est aussi servie de l’IA pour démasquer l’arnaque. Certes, l’argent ne sera pas retrouvé, mais au moins elle a pu limiter les dégâts et ne pas s’enfoncer davantage.
En fin de compte, la technologie n’a pas de parti pris. Un couteau peut couper des légumes ou blesser quelqu’un, l’IA peut servir à embobiner comme à protéger. La prochaine fois qu’on vous propose un « investissement sûr et sans risque », demandez donc d’abord à ChatGPT – c’est bien plus fiable que de demander à une amie.