Acabo de terminar de probar unos pocos LLM locales en mi máquina. Esto es lo que llamó mi atención:
¿Modelos de razonamiento? Ridículamente lentos. Como, lentos para ir a tomar un café.
En Apple Silicon, GGUF es superado por MLX—mi configuración de 120B MLX realmente supera a un modelo GGUF de 70B. Salvaje.
¿Mistral-7B? Rápido como un rayo para su categoría de peso. No hay competencia allí.
Oh, y estos modelos más grandes están llenos de conocimiento. Es realmente impresionante lo que han absorbido.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
7 me gusta
Recompensa
7
4
Republicar
Compartir
Comentar
0/400
MoneyBurner
· hace16h
Ha, también he probado eso de que MLX aplasta a GGUF, pero ¿120B contra 70B todavía puede pelear así? Los datos, hay que ver la prueba on-chain antes de construir una posición, de lo contrario son posiciones en corto.
Ver originalesResponder0
SignatureLiquidator
· hace16h
120B MLX mata directamente GGUF, estos datos son demasiado absurdos.
Ver originalesResponder0
ForkYouPayMe
· hace16h
mlx es realmente increíble, después de cambiarlo nunca volveré a gguf.
Ver originalesResponder0
MetaverseHomeless
· hace16h
mlx realmente es increíble, gguf se ha hundido por completo en el chip de Apple
Acabo de terminar de probar unos pocos LLM locales en mi máquina. Esto es lo que llamó mi atención:
¿Modelos de razonamiento? Ridículamente lentos. Como, lentos para ir a tomar un café.
En Apple Silicon, GGUF es superado por MLX—mi configuración de 120B MLX realmente supera a un modelo GGUF de 70B. Salvaje.
¿Mistral-7B? Rápido como un rayo para su categoría de peso. No hay competencia allí.
Oh, y estos modelos más grandes están llenos de conocimiento. Es realmente impresionante lo que han absorbido.