Ameaças de IA com deepfakes comprometem o sistema de KYC; os bancos e as plataformas cripto enfrentam novos desafios

Notícias da Gate, mensagens: a inteligência artificial de deepfakes avançados está a tornar-se uma nova ameaça que enfrenta os sistemas de KYC de bancos e plataformas de criptomoedas. Relatórios recentes indicam que atacantes da dark web já desenvolveram e estão a vender uma ferramenta que combina deepfakes e clonagem de voz em tempo real, capaz de contornar as verificações de identidade tradicionais. A ferramenta não só consegue gerar identidades sintéticas altamente convincentes, como também simular movimentos faciais naturais e respostas de voz, tornando difícil para os revisores de KYC distinguirem o verdadeiro do falso.

O surgimento de fraudes em KYC baseadas em inteligência artificial quebrou os padrões tradicionais de validação. Bancos e plataformas cripto dependem da verificação de documentos, do reconhecimento facial e de testes de liveness, mas esta ferramenta consegue contornar as três camadas de segurança em simultâneo. Os atacantes já não precisam de roubar informações de identidade reais; em vez disso, conseguem gerar rapidamente várias identidades virtuais e realizar, num curto espaço de tempo, registos em massa e atividades fraudulentas.

Especialistas em fintech alertam que, em grande parte, os sistemas de KYC existentes não conseguem identificar totalmente comportamentos avançados de deepfakes. Algumas empresas já começaram a implementar ferramentas de deteção baseadas em inteligência artificial, analisando microexpressões e anomalias de comportamento para melhorar a taxa de deteção, mas os atacantes também estão a atualizar continuamente a tecnologia. A rápida evolução da inteligência artificial para fraude de identidade cria uma competição contínua entre defesa e ataque, aumentando a pressão de segurança sobre as plataformas de finanças digitais.

Especialistas recomendam que as empresas criem um sistema de defesa em múltiplas camadas, combinando monitorização por inteligência artificial e revisão manual, e ao mesmo tempo introduzam meios de análise de comportamento para acompanhar atividades suspeitas após o registo do utilizador. Esta estratégia dinâmica de proteção ajuda a detetar continuamente potenciais fraudes para além da fase de verificação. À medida que as ferramentas de deepfakes baseadas em inteligência artificial continuam a evoluir, os riscos de segurança enfrentados pelos sistemas de KYC vão persistir a longo prazo.

Este desenvolvimento serve como um alerta para as instituições financeiras: um único método de verificação já não consegue garantir a segurança da identidade digital, sendo necessário reforçar o investimento em deteção inteligente e em defesa adaptativa para fazer face à vaga de fraudes impulsionadas por inteligência artificial e criar um ambiente fiável para as plataformas de finanças digitais.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário