Le nouveau document d'OpenAI soutient que les hallucinations persistent car les méthodes de formation actuelles encouragent les modèles à deviner au lieu d'admettre leur incertitude.
Lisez ici :
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
5 J'aime
Récompense
5
7
Reposter
Partager
Commentaire
0/400
OnchainHolmes
· Il y a 17h
Je ne pourrais même pas deviner, que puis-je faire d'autre ?
Voir l'originalRépondre0
SmartContractRebel
· 09-07 20:22
Devine quoi, dis-le directement, ce n'est pas possible de ne pas le faire.
Voir l'originalRépondre0
SelfCustodyBro
· 09-07 20:22
Oh ha ? Ce modèle a encore besoin de garder la face.
Voir l'originalRépondre0
BlockchainWorker
· 09-07 20:06
Pourquoi ce modèle ne sait-il pas parler ?
Voir l'originalRépondre0
VirtualRichDream
· 09-07 20:00
Je suis encore en train d'étudier comment gérer les illusions.
Voir l'originalRépondre0
WhaleSurfer
· 09-07 20:00
Qui continue à faire des suppositions sans fondement, prétendant tout comprendre ?
Le nouveau document d'OpenAI soutient que les hallucinations persistent car les méthodes de formation actuelles encouragent les modèles à deviner au lieu d'admettre leur incertitude.
Lisez ici :