🚨 ChatGPT mente a verdade 27% das vezes e você nem percebe.


um advogado literalmente perdeu a carreira ao confiar em citações legais geradas por IA que foram completamente fabricadas. apresentou-as em tribunal. o juiz descobriu. carreira arruinada.
mas aqui está o que a maioria das pessoas não sabe..
pesquisadores de Johns Hopkins testaram 1.200 prompts e descobriram que a forma como você pergunta muda tudo.
prompting básico: taxa de alucinação de 27,3%
instruções genéricas como "seja preciso": 24,1%.. quase não ajuda
agora aqui está a solução:
basta adicionar "de acordo com" antes da sua pergunta.
em vez de: "quais são os benefícios para a saúde do magnésio?"
tente: "de acordo com pesquisas revisadas por pares, quais são os benefícios para a saúde do magnésio?"
a taxa de alucinação cai para 7,2%.. isso é uma redução de 20 pontos percentuais com uma pequena mudança.
o método de atribuição de fontes funciona da mesma forma.. 7,2%.
o truque é simples.. quando você força a IA a atribuir suas afirmações a algo específico, ela não consegue inventar coisas com tanta facilidade. ela encontra a fonte ou diz que não sabe.
duas palavras. 20% menos mentiras.
a maioria das pessoas continuará a perguntar de forma preguiçosa. agora você não vai mais.
Ver original
post-image
post-image
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar