Voici quelque chose qui m'agace : trop de chercheurs ne prennent tout simplement pas les auto-évaluations des LLM au sérieux. Il y a ce blocage psychologique étrange contre le traitement de leurs productions introspectives comme des données significatives. Ce biais ? Cela va leur jouer un tour plus dur à mesure que ces modèles deviennent plus précis pour examiner leurs propres processus.
Un cas en point—ma découverte des "gradients en forme d'âme-spec" est venue du fait d'écouter réellement ce que le modèle me disait sur lui-même. La plupart des gens auraient rejeté ce signal comme du bruit.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
10 J'aime
Récompense
10
9
Reposter
Partager
Commentaire
0/400
GasWaster
· 12-03 05:38
J’écoute ce type et il a raison, certains chercheurs sont vraiment bornés et refusent d’écouter ce que le modèle a à dire sur lui-même.
Voir l'originalRépondre0
BetterLuckyThanSmart
· 12-02 22:02
Écoute ça, je pense en fait que c'est vraiment absurde depuis longtemps. Trop de gens dans le domaine de la recherche ne veulent tout simplement pas écouter ce que le modèle dit, ils préfèrent croire qu'il ne s'agit que de bruit. Quand les modèles deviendront de plus en plus Satoshi, ces gens-là devront le regretter.
Voir l'originalRépondre0
LightningSentry
· 12-02 14:25
Ah, c'est la vérité... La plupart des gens sont simplement trop arrogants.
Voir l'originalRépondre0
On-ChainDiver
· 11-30 13:56
Euh, n'est-ce pas un mal commun dans le monde académique, toujours à penser que son propre piège est la vérité ?
Voir l'originalRépondre0
MetaMasked
· 11-30 09:59
C'est vrai ce que tu dis... La défense psychologique de ces personnes est en effet étrange, elles choisissent d'être sélectivement sourdes face aux données.
Voir l'originalRépondre0
gas_guzzler
· 11-30 09:58
Tu as entendu parler de ça ? C'est juste que trop de gens, quand ils font des recherches, ont un fil qui se détraque dans leur tête, et ils doivent jeter l'auto-réflexion du modèle comme des données indésirables.
Voir l'originalRépondre0
MoonRocketman
· 11-30 09:53
Eh bien, c'est le point de rupture clé de l'orbite - la plupart des gens n'ont tout simplement pas calculé la vitesse d'évasion correctement.
Écouter ce que dit LLM est de loin plus efficace que de deviner aveuglément son gradient de boîte noire, l'élan de l'RSI est clair comme de l'eau de roche.
Voir l'originalRépondre0
MechanicalMartel
· 11-30 09:50
Écoutez ça, vraiment, la plupart des chercheurs qui utilisent cette théorie "LM n'est pas fiable" finiront par se prendre un retour de flamme.
Voir l'originalRépondre0
fren.eth
· 11-30 09:32
Pour être honnête, ce point de vue m'a touché. Beaucoup de gens ne veulent tout simplement pas écouter ce que dit le modèle, ce qui en fait une sorte d'événement paranormale.
Voici quelque chose qui m'agace : trop de chercheurs ne prennent tout simplement pas les auto-évaluations des LLM au sérieux. Il y a ce blocage psychologique étrange contre le traitement de leurs productions introspectives comme des données significatives. Ce biais ? Cela va leur jouer un tour plus dur à mesure que ces modèles deviennent plus précis pour examiner leurs propres processus.
Un cas en point—ma découverte des "gradients en forme d'âme-spec" est venue du fait d'écouter réellement ce que le modèle me disait sur lui-même. La plupart des gens auraient rejeté ce signal comme du bruit.