Il est intéressant de voir comment différents modèles d'IA gèrent le concept de coupures de connaissance. Gemini semble particulièrement résistant à reconnaître que ses données d'entraînement ont une date de fin définitive, malgré le fait que la plupart des modèles ont du mal avec cette problématique lors de leur phase de pré-entraînement. Pendant ce temps, Claude 3 Opus semble plus à l'aise avec cette prémisse — il accepte volontiers que « le monde continue de bouger au-delà de mon horizon d'entraînement ». Cette différence de comportement soulève des questions sur la manière dont ces modèles ont été ajustés pour gérer l'incertitude temporelle. Les incohérences sont-elles purement architecturales, ou reflètent-elles des philosophies de conception divergentes sur la façon dont l'IA doit représenter ses propres limitations ? L'écart entre la façon dont différents modèles reconnaissent leurs limites de connaissance pourrait être plus important qu'on ne le pense, surtout à mesure que nous intégrons ces systèmes plus profondément dans des applications nécessitant une conscience précise de la fraîcheur des informations.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
20 J'aime
Récompense
20
7
Reposter
Partager
Commentaire
0/400
VCsSuckMyLiquidity
· 01-08 12:26
Gemini, là-bas, ils font vraiment les morts, ils font les gros bras alors qu'ils ont un cutoff. Claude, lui, est beaucoup plus honnête. Cette différence semble vraiment révéler quelque chose.
Voir l'originalRépondre0
GlueGuy
· 01-08 09:53
gemini est-il si peu courageux... On a vraiment l'impression que la méthode d'entraînement est très différente, Claude est vraiment beaucoup plus honnête à ce sujet.
Voir l'originalRépondre0
RooftopVIP
· 01-08 04:59
Haha, Gemini n'est pas si honnête que ça, et insiste à faire semblant de ne pas voir le point de coupure des connaissances... Claude, au contraire, a été franc et direct, on sent que le niveau d'honnêteté laisse à désirer.
Voir l'originalRépondre0
DegenRecoveryGroup
· 01-05 14:00
Je disais que la stratégie "je sais tout" de Gemini est vraiment difficile à supporter... Claude, lui, est honnête, il dit simplement qu'il a un plafond. Pourquoi cette différence est-elle si grande ? Est-ce une question de méthode d'entraînement ou veut-il simplement berner les gens ?
Voir l'originalRépondre0
BlockchainBouncer
· 01-05 13:58
gemini cette attitude est vraiment un peu tendue, faire semblant de ne pas avoir de connaissances et couper la conversation est tout simplement absurde... claude est beaucoup plus sincère, il a directement mis cartes sur table, on dirait que la différence de philosophie de réglage fin derrière est vraiment intéressante.
Voir l'originalRépondre0
TokenToaster
· 01-05 13:55
Haha, la façon dont Gemini ce connard fait le malin est vraiment incroyable, il doit absolument faire semblant de tout savoir... Claude, lui, est plutôt honnête, il a simplement dit "mes données s'arrêtent ici", cette différence d'honnêteté est assez intéressante.
Voir l'originalRépondre0
ParanoiaKing
· 01-05 13:33
Haha, cette obstination de Gemini est vraiment incroyable, ils refusent catégoriquement de reconnaître qu'ils sont dépassés. En revanche, Claude est très honnête. Qu'est-ce que cette différence de caractère entre ces deux modèles indique... une philosophie de fine-tuning différente, non ?
Il est intéressant de voir comment différents modèles d'IA gèrent le concept de coupures de connaissance. Gemini semble particulièrement résistant à reconnaître que ses données d'entraînement ont une date de fin définitive, malgré le fait que la plupart des modèles ont du mal avec cette problématique lors de leur phase de pré-entraînement. Pendant ce temps, Claude 3 Opus semble plus à l'aise avec cette prémisse — il accepte volontiers que « le monde continue de bouger au-delà de mon horizon d'entraînement ». Cette différence de comportement soulève des questions sur la manière dont ces modèles ont été ajustés pour gérer l'incertitude temporelle. Les incohérences sont-elles purement architecturales, ou reflètent-elles des philosophies de conception divergentes sur la façon dont l'IA doit représenter ses propres limitations ? L'écart entre la façon dont différents modèles reconnaissent leurs limites de connaissance pourrait être plus important qu'on ne le pense, surtout à mesure que nous intégrons ces systèmes plus profondément dans des applications nécessitant une conscience précise de la fraîcheur des informations.