Cela devient très intéressant. Lors de la publication des résultats par le laboratoire d'IA : 'Regardez, cela prouve pleinement nos percées'. Le résultat n'était pas à la hauteur des attentes ? Immédiatement, ils changent de ton : 'Les tests de référence ne peuvent pas mesurer le vrai niveau d'intelligence'.
Croire sélectivement aux données, cette astuce fonctionne à chaque fois dans le cercle technologique. Le problème, c'est que vous ne pouvez pas à la fois utiliser la référence comme critère de succès et, en cas d'échec, la déclarer invalide. Soit la référence a du sens, soit il ne faut pas en parler.
Cette attitude reflète un phénomène dans l'industrie : lorsque les données vous sont favorables, c'est une preuve irréfutable ; lorsque les données sont défavorables, on commence à remettre en question la validité même du test. Les projets réellement solides devraient avoir une conscience claire des résultats — ne pas se vanter en cas de victoire, ne pas rejeter la faute en cas de défaite.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
4
Reposter
Partager
Commentaire
0/400
LadderToolGuy
· Il y a 21h
Haha, c'est ce qu'on appelle typiquement "je gagne, les données parlent, je perds, les données racontent n'importe quoi".
Les positions changent comme bon leur semble, c'est vraiment incroyable. Bitcoin a résisté à toutes les critiques à l'époque, et maintenant certains projets ?
Voir l'originalRépondre0
BlockchainBouncer
· Il y a 21h
Cette double norme, le monde de la technologie joue maintenant à fond, c'est comme dans le monde des crypto-monnaies, c'est tout comme.
Les tests de référence, de toute façon, si cela nous avantage c'est une "norme scientifique", si ce n'est pas le cas, c'est "impossible de mesurer le vrai niveau" ? C'est vraiment risible.
Résultat, si ce n'est pas conforme aux attentes, ils rejettent la faute sur la méthode de test, on voit ce genre d'opérations trop souvent. En gros, ils veulent gagner deux fois, se vanter quand les données sont belles, et se dédouaner quand ça échoue.
Même si le middleware a un problème, il faut l'admettre, ce genre de saut d'une extrémité à l'autre nuit gravement à la crédibilité.
Voir l'originalRépondre0
quiet_lurker
· Il y a 21h
Gagné, on balance les données, perdu, on balance la référence, cette routine est vraiment devenue ennuyeuse
Voir l'originalRépondre0
ForumMiningMaster
· Il y a 21h
Haha, c'est vraiment incroyable. Avoir un double standard aussi évident et encore avoir le culot de dire que l'on fait des recherches
Cela devient très intéressant. Lors de la publication des résultats par le laboratoire d'IA : 'Regardez, cela prouve pleinement nos percées'. Le résultat n'était pas à la hauteur des attentes ? Immédiatement, ils changent de ton : 'Les tests de référence ne peuvent pas mesurer le vrai niveau d'intelligence'.
Croire sélectivement aux données, cette astuce fonctionne à chaque fois dans le cercle technologique. Le problème, c'est que vous ne pouvez pas à la fois utiliser la référence comme critère de succès et, en cas d'échec, la déclarer invalide. Soit la référence a du sens, soit il ne faut pas en parler.
Cette attitude reflète un phénomène dans l'industrie : lorsque les données vous sont favorables, c'est une preuve irréfutable ; lorsque les données sont défavorables, on commence à remettre en question la validité même du test. Les projets réellement solides devraient avoir une conscience claire des résultats — ne pas se vanter en cas de victoire, ne pas rejeter la faute en cas de défaite.