Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Ataque Deepfake: 'Muitas pessoas podem ter sido enganadas'
Deepfake attack: ‘Muitas pessoas poderiam ter sido enganadas’
2 de março de 2026
ShareSave
Gideon Longand
Ed Butler
ShareSave
AFP via Getty Images
Sundararaman Ramamurthy diz que é impossível saber quantas pessoas viram o vídeo falso
No início deste ano, um vídeo apareceu em redes sociais na Índia mostrando o diretor executivo da Bolsa de Valores de Bombaim, Sundararaman Ramamurthy, dando conselhos a investidores sobre quais ações comprar.
Os espectadores foram prometidos retornos generosos se seguissem seus conselhos.
O único problema era que não era Ramamurthy falando. Era um vídeo deepfake dele, feito usando inteligência artificial.
“Estava em domínio público, onde muitas pessoas poderiam vê-lo e serem enganadas a comprar ou vender ações, como se eu as tivesse recomendado,” explica Ramamurthy.
“Quando vemos um incidente como este, imediatamente apresentamos uma queixa. Vamos ao Instagram e a outros lugares onde está publicado para pedir a remoção do vídeo. E escrevemos regularmente ao mercado alertando as pessoas para não acreditarem em vídeos falsos.”
Ramamurthy acrescenta: "Não sabemos quantas pessoas viram este vídeo, é realmente difícil descobrir, então não podemos realmente julgar se teve um grande impacto ou não.
“O que queremos é que não tenha tido impacto nenhum. Ninguém deve incorrer em prejuízo por acreditar em algo que é falso.”
BBC Business Daily: Os CEOs deepfake
Deepfakes não consensuais são ilegais agora no Reino Unido - como são detectados?
Enfrentar deepfakes ‘transformou-se numa corrida armamentista’
Ramamurthy e a Bolsa de Valores de Bombaim não estão sozinhos.
“Os dados mais recentes mostram que, nos últimos dois anos, vimos um aumento de quase 3.000% no número de deepfakes utilizados,” diz Karim Toubba, o diretor executivo da empresa de segurança de senhas baseada nos EUA LastPass.
Toubba foi deepfaked em 2024.
“Um dos nossos empregados na Europa recebeu uma mensagem de áudio e uma mensagem de texto de alguém alegando ser eu, pedindo urgentemente alguma ajuda minha,” diz ele.
Felizmente para Toubba - e LastPass - o empregado estava suspeitando.
“A mensagem estava no WhatsApp, que para nós não é um canal de comunicação sancionado,” diz Toubba. “Além disso, temos dispositivos móveis sancionados pela empresa e isso chegou pelo telefone pessoal dele. Então isso fez com que ele pensasse que isso era potencialmente um pouco obscuro, um pouco suspeito.”
O empregado relatou o incidente à equipe de cibersegurança da LastPass e nenhum dano foi feito.
AFP via Getty Images
Não se sabe quantas pessoas foram afetadas pelo ataque ao chefe da Bolsa de Valores de Bombaim
A empresa de engenharia britânica Arup não teve tanta sorte. Em 2024, foi atingida por um dos ataques deepfake mais sofisticados já vistos no mundo corporativo.
De acordo com a polícia de Hong Kong, um empregado da Arup que trabalhava lá recebeu uma mensagem que supostamente vinha do diretor financeiro (CFO) da empresa, que estava baseado em Londres, referente a uma “transação confidencial”.
O empregado fez uma chamada de vídeo com o CFO e outros funcionários. Com base nessa chamada, o empregado transferiu $25 milhões (£18,5 milhões) de dinheiro da Arup para cinco contas bancárias diferentes, conforme instruído. Só mais tarde ficou claro que as pessoas na chamada, incluindo o CFO, eram deepfakes.
“Você nunca iria simplesmente entrar numa chamada de vídeo com alguém e transferir $25 milhões,” diz Stephanie Hare, pesquisadora de tecnologia e co-apresentadora do programa de TV da BBC AI Decoded.
“As empresas estão tendo que tomar medidas extras para assegurar esses tipos de comunicações. Essa é a nova realidade em que estamos agora.”
A rápida evolução da IA significa que esses vídeos estão se tornando cada vez mais realistas.
“Deepfakes estão se tornando muito, muito fáceis de fazer,” diz Matt Lovell, co-fundador e CEO da empresa de cibersegurança baseada no Reino Unido CloudGuard. “Para gerar vídeos e áudios de qualidade extremamente precisa - leva minutos.”
Está também se tornando mais barato.
“Para, digamos, um ataque simples, liderado por um único indivíduo, você está olhando entre $500 e $1.000 com o uso de ferramentas em grande parte gratuitas,” diz Lovell. “Para um ataque mais sofisticado, você está olhando entre $5.000 e $10.000.”
Enquanto os vídeos deepfake estão se tornando mais sofisticados, as ferramentas usadas para combatê-los também estão. As empresas agora podem usar software de verificação que pode avaliar as expressões faciais de uma pessoa, a maneira como viram a cabeça e até mesmo o fluxo sanguíneo pelo rosto para estabelecer se realmente é ela ou uma versão deepfake dela.
“Nas suas bochechas ou logo abaixo das pálpebras, estaremos à procura de mudanças no fluxo sanguíneo quando uma pessoa está falando ou apresentando.” diz Lovell. “É realmente onde podemos descobrir se é gerado por IA ou se é real.”
Getty Images
A IA está permitindo que cibercriminosos façam vídeos deepfake com muito mais facilidade
Mas as empresas estão em uma batalha constante para se manter um passo à frente dos fraudadores.
“É uma corrida, entre quem pode implantar uma tecnologia e quem pode frustrar essa tecnologia o mais rápido possível,” diz Toubba da LastPass. “Felizmente, parece haver bastante dinheiro fluindo para isso, o que apenas acelerará o ritmo com que as organizações desenvolverão tecnologias para detectar e, em última instância, bloquear essas coisas.”
Na CloudGuard, o CEO Matt Lovell é mais pessimista.
“Os vetores de ataque estão acelerando mais rápido do que podemos acelerar a automação de defesa e proteção,” diz ele. “As pessoas estão se movendo rápido o suficiente para responder à velocidade com que a ameaça está se desenvolvendo? Absolutamente não.”
Hare diz que a proliferação de ataques deepfake significa que pessoas com habilidades para combater fraudadores estão em alta demanda. “Temos uma escassez de profissionais de cibersegurança em todo o mundo. Precisamos de mais pessoas para entrar nisso.”
E ela diz que as empresas estão despertando para a ameaça, embora lentamente.
“Antes não era considerado uma prioridade assegurar suas operações da mesma maneira que é agora,” aponta ela.
“Agora que temos esses tipos de riscos, com os líderes das empresas, com os CEOs, sendo deepfaked, eu acho que os executivos das empresas estarão passando mais tempo com seus diretores de segurança da informação e equipes do que antes. E isso é uma coisa boa.”
Você está preparado para viver e trabalhar na Antártica?
As duas fazendas no Senegal que fornecem muitos dos vegetais do Reino Unido
Trump considera visitar a Venezuela – mas obstáculos para seu plano de petróleo permanecem
Os holandeses adoram semanas de trabalho de quatro dias, mas são sustentáveis?
Mundo dos Negócios
Negócios Internacionais
Inteligência artificial
Fraude na Internet
Índia
Deepfakes
Fraude