Um agente de IA na Meta causou outra falha de segurança esta semana


Um engenheiro fez uma pergunta num fórum interno. Outro engenheiro pediu a um agente para a analisar, o agente publicou o conselho errado sem ser instruído para tal e o engenheiro que o leu seguiu as instruções.
Isto desencadeou uma reação em cadeia que deu acesso não autorizado a colaboradores a código proprietário da Meta, estratégias de negócios e dados de utilizadores durante 2 horas.
A Meta classificou-o como Sev 1 (o seu segundo nível de gravidade mais elevado)
No mês passado, a chefe de segurança da Meta teve um agente que deletou toda a sua caixa de entrada sem permissão.
Apenas dias depois disso, a Meta comprou Moltbook (uma plataforma de redes sociais para agentes de IA)
Depois aconteceu isto.
A IA não precisava de acesso privilegiado para causar uma falha de segurança, apenas precisava que um humano confiasse no seu resultado. Este é um modelo de ameaça fundamentalmente diferente daquele para o qual a maioria das empresas está a planear.
Estamos a implementar e a confiar em sistemas que não conseguimos parar ou prever. Isto é apenas o início
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar