Um vídeo fabricado que imita a jornalista Yalda Hakim da Sky News espalhou-se rapidamente pelas redes sociais, desencadeando alarme generalizado.



“Este tipo de conteúdo manipulado espalha-se rapidamente e representa perigos reais,” alertou Hakim, “especialmente quando as nações já estão em alerta e estas declarações falsas podem agravar tensões até ao ponto de conflito real.”

O incidente sublinha as crescentes preocupações com a desinformação gerada por IA numa era em que verificar a autenticidade do conteúdo se torna cada vez mais crítico. À medida que a tecnologia de deepfake se torna mais barata e convincente, distinguir o real do fabricado torna-se um desafio sério tanto para figuras mediáticas como para o público.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 8
  • Republicar
  • Partilhar
Comentar
0/400
TokenStormvip
· 2h atrás
Deepfake, do ponto de vista tecnológico, é literalmente um barril de pólvora. Se recuarmos e analisarmos os dados históricos, dá para ver que sempre que algo assim acontece, o mercado oscila uns 20-30%, e o coeficiente de risco dispara. Entrámos numa era em que é difícil distinguir o que é real do que é falso, até os dados on-chain podem ser falsificados… No que é que ainda podemos confiar, haha.
Ver originalResponder0
LiquidityWizardvip
· 13h atrás
Epá, isto do deepfake já não se aguenta, parece que qualquer pessoa pode ser trocada de cara... Se isto acontecer mesmo numa altura de tensão, estamos tramados.
Ver originalResponder0
SerRugResistantvip
· 12-04 18:54
Este deepfake está mesmo cada vez mais ridículo. Não sou só eu a dizer, o custo de falsificação está cada vez mais baixo e a velocidade de propagação é rapidíssima. Não achas preocupante?
Ver originalResponder0
AirdropHunter007vip
· 12-04 18:52
Eh pá, os deepfakes estão assim tão avançados? Não admira que agora já não se acredite em nada.
Ver originalResponder0
ChainChefvip
· 12-04 18:51
Epá, esta situação dos deepfakes é literalmente como um protocolo meio cozinhado em desenvolvimento... os ingredientes estão lá, mas o tempero está todo errado. Quando já não consegues verificar a origem, o apetite do mercado pela verdade simplesmente desaba, a sério mesmo.
Ver originalResponder0
New_Ser_Ngmivip
· 12-04 18:50
Esta cena das deepfakes é mesmo absurda, agora até os jornalistas podem ser enganados, afinal de contas, quem é que ainda pode confiar em alguma coisa?
Ver originalResponder0
LightningClickervip
· 12-04 18:35
A questão das deepfakes está realmente a ficar insustentável, agora até jornalistas estão a ser usados... Se isto começar a espalhar-se em larga escala, a guerra de informação vai evoluir para uma guerra psicológica.
Ver originalResponder0
SmartContractPlumbervip
· 12-04 18:34
Esta tecnologia de deepfake é como a vulnerabilidade de reentrância nos contratos inteligentes: parece complexa e impressionante, mas na verdade tudo se resume à ausência de validação. O problema não está na tecnologia em si, mas no colapso de toda a cadeia de auditoria — veja, se a verificação da autenticidade do conteúdo fosse tratada como controlo de permissões, nunca teríamos chegado a este ponto.
Ver originalResponder0
  • Fixar
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)