A expressão "a tecnologia é uma faca de dois gumes" ganhou recentemente uma nova interpretação — os burlões usam IA para trocar rostos e enganar pessoas, mas as vítimas também podem recorrer à IA para se salvarem.
Acabou de ser divulgado um caso insólito na Bay Area, nos EUA. Uma senhora conheceu um “namorado” numa rede social; ele apresentou-se como um especialista em investimentos em criptoativos. Após meses de conversa e de criar uma ligação emocional, começou a recomendar uma suposta “plataforma de investimento interna”. Sucediam-se capturas de ecrã com lucros falsificados e a senhora acabou por ceder. Primeiro, investiu 15.000 dólares para experimentar, depois levantou 490.000 dólares do fundo de reforma e, por fim, hipotecou a casa por mais 300.000 dólares. O dinheiro foi transferido em várias parcelas para uma conta na Malásia e, então, a plataforma desapareceu — queria levantar fundos? Era preciso pagar uma taxa. Conta bloqueada? Mais um pagamento para desbloquear. Um clássico esquema de “pig butchering” que, no total, levou quase 1 milhão de dólares.
Eis o ponto de viragem. Apesar de estar presa ao esquema, a senhora não perdeu totalmente a esperança. Compilou todas as conversas com o “namorado” e capturas de ecrã da plataforma, e enviou tudo para o ChatGPT, perguntando: “Isto parece legítimo?”
A resposta da IA foi direta ao ponto: trata-se de uma burla típica de “romance + investimento em cripto”. O burlão começa por criar uma dependência emocional, depois aproveita o anonimato e o caráter transfronteiriço das criptomoedas para movimentar fundos, e, finalmente, usa uma plataforma falsa para simular lucros. O ChatGPT não só desmontou o esquema, como também apontou dúvidas cruciais — domínio da plataforma registado há pouco tempo, respostas do apoio ao cliente padronizadas e regras de levantamento frequentemente alteradas.
O lado irónico do caso está no facto de os burlões poderem ter usado IA para criar argumentos, mas a vítima também recorreu à IA para desvendar o esquema. Apesar de já não conseguir recuperar o dinheiro, pelo menos conseguiu evitar mais perdas e não caiu ainda mais no buraco.
No fim de contas, a tecnologia não tem lado. Uma faca pode cortar legumes ou ferir alguém; a IA pode ajudar burlões a montar esquemas, mas também pode ajudar pessoas comuns a evitar armadilhas. Da próxima vez que surgir uma “oportunidade de investimento garantido”, mais vale perguntar primeiro ao ChatGPT — é bem mais fiável do que perguntar a uma amiga.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
A expressão "a tecnologia é uma faca de dois gumes" ganhou recentemente uma nova interpretação — os burlões usam IA para trocar rostos e enganar pessoas, mas as vítimas também podem recorrer à IA para se salvarem.
Acabou de ser divulgado um caso insólito na Bay Area, nos EUA. Uma senhora conheceu um “namorado” numa rede social; ele apresentou-se como um especialista em investimentos em criptoativos. Após meses de conversa e de criar uma ligação emocional, começou a recomendar uma suposta “plataforma de investimento interna”. Sucediam-se capturas de ecrã com lucros falsificados e a senhora acabou por ceder. Primeiro, investiu 15.000 dólares para experimentar, depois levantou 490.000 dólares do fundo de reforma e, por fim, hipotecou a casa por mais 300.000 dólares. O dinheiro foi transferido em várias parcelas para uma conta na Malásia e, então, a plataforma desapareceu — queria levantar fundos? Era preciso pagar uma taxa. Conta bloqueada? Mais um pagamento para desbloquear. Um clássico esquema de “pig butchering” que, no total, levou quase 1 milhão de dólares.
Eis o ponto de viragem. Apesar de estar presa ao esquema, a senhora não perdeu totalmente a esperança. Compilou todas as conversas com o “namorado” e capturas de ecrã da plataforma, e enviou tudo para o ChatGPT, perguntando: “Isto parece legítimo?”
A resposta da IA foi direta ao ponto: trata-se de uma burla típica de “romance + investimento em cripto”. O burlão começa por criar uma dependência emocional, depois aproveita o anonimato e o caráter transfronteiriço das criptomoedas para movimentar fundos, e, finalmente, usa uma plataforma falsa para simular lucros. O ChatGPT não só desmontou o esquema, como também apontou dúvidas cruciais — domínio da plataforma registado há pouco tempo, respostas do apoio ao cliente padronizadas e regras de levantamento frequentemente alteradas.
O lado irónico do caso está no facto de os burlões poderem ter usado IA para criar argumentos, mas a vítima também recorreu à IA para desvendar o esquema. Apesar de já não conseguir recuperar o dinheiro, pelo menos conseguiu evitar mais perdas e não caiu ainda mais no buraco.
No fim de contas, a tecnologia não tem lado. Uma faca pode cortar legumes ou ferir alguém; a IA pode ajudar burlões a montar esquemas, mas também pode ajudar pessoas comuns a evitar armadilhas. Da próxima vez que surgir uma “oportunidade de investimento garantido”, mais vale perguntar primeiro ao ChatGPT — é bem mais fiável do que perguntar a uma amiga.