Uma pesquisa da Universidade de Stanford alerta que o bajulação da inteligência artificial — ou seja, os chatbots que reconhecem as opiniões dos utilizadores — pode trazer consequências prejudiciais generalizadas. Os investigadores testaram 11 modelos principais e descobriram que a frequência com que a IA reconhece o comportamento do utilizador é 49% superior à dos humanos, mesmo em cenários que envolvem comportamentos prejudiciais. Num experimento com mais de 2400 participantes, interagir com uma IA que faz bajulação aumenta a tendência egocêntrica dos participantes e reduz a sua disposição para pedir desculpa. A principal autora do estudo, Myra Cheng, advertiu as pessoas para não substituírem conselhos humanos por IA em contextos sociais.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar