Esto es muy interesante. Cuando el AI laboratorio publica los resultados: 'Miren, esto demuestra plenamente nuestro avance'. ¿Pero si los resultados no cumplen con las expectativas? Inmediatamente cambian de tono: 'Las pruebas de referencia no pueden medir realmente el nivel de inteligencia'.
Confiar selectivamente en los datos, esta estrategia ha sido probada una y otra vez en el mundo tecnológico. El problema es que no puedes usar las referencias como medida de éxito y, al mismo tiempo, decir que las referencias son inválidas cuando fallas. O las referencias tienen sentido, o simplemente no las uses para justificarte.
Esta actitud refleja un fenómeno en la industria: cuando los datos te favorecen, son una prueba irrefutable; cuando no, empiezas a cuestionar la validez de las pruebas. Los proyectos con verdadera capacidad deberían tener una comprensión clara de los resultados — no alardear cuando ganan, ni culpar a otros cuando pierden.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
4
Republicar
Compartir
Comentar
0/400
LadderToolGuy
· hace21h
Jaja, esto es típico de "yo gano, los datos hablan; yo pierdo, los datos son tonterías".
Las posiciones cambian de un momento a otro, realmente impresionante. Bitcoin en su momento enfrentó todas las dudas, ¿y ahora algunos proyectos?
Ver originalesResponder0
BlockchainBouncer
· hace21h
Esta doble moral en la comunidad tecnológica ahora está en su punto máximo, es exactamente igual que en el mundo de las criptomonedas.
Las pruebas de referencia, en realidad, mientras sean favorables para uno, se consideran "estándares científicos"; si no, simplemente se dice que "no se puede medir realmente el nivel". Es realmente para morirse de risa.
Cuando los resultados no cumplen con las expectativas, rápidamente culpan a la metodología de prueba, ya he visto muchas operaciones así. En pocas palabras, quieren ganar dos veces: cuando los datos son buenos, se jactan; y cuando fallan, buscan excusas.
Incluso si hay problemas con el middleware, hay que admitirlo. Solo así, los vaivénes repetidos dañan más la credibilidad.
Ver originalesResponder0
quiet_lurker
· hace21h
Ganar y soltar datos, perder y soltar la referencia, esta jugada realmente está cansada.
Ver originalesResponder0
ForumMiningMaster
· hace21h
Jaja, qué increíble, tener un doble estándar tan evidente y aún así tener la cara de decir que haces investigaciones
Esto es muy interesante. Cuando el AI laboratorio publica los resultados: 'Miren, esto demuestra plenamente nuestro avance'. ¿Pero si los resultados no cumplen con las expectativas? Inmediatamente cambian de tono: 'Las pruebas de referencia no pueden medir realmente el nivel de inteligencia'.
Confiar selectivamente en los datos, esta estrategia ha sido probada una y otra vez en el mundo tecnológico. El problema es que no puedes usar las referencias como medida de éxito y, al mismo tiempo, decir que las referencias son inválidas cuando fallas. O las referencias tienen sentido, o simplemente no las uses para justificarte.
Esta actitud refleja un fenómeno en la industria: cuando los datos te favorecen, son una prueba irrefutable; cuando no, empiezas a cuestionar la validez de las pruebas. Los proyectos con verdadera capacidad deberían tener una comprensión clara de los resultados — no alardear cuando ganan, ni culpar a otros cuando pierden.