El modelo «mito» de Anthropic se filtra accidentalmente: la situación de seguridad en criptomonedas y DeFi se vuelve repentinamente tensa

robot
Generación de resúmenes en curso

Título

Anthropic filtró accidentalmente el modelo “Mito” (código interno Capybara), que supuestamente supera a Opus en múltiples tareas. El círculo de seguridad criptográfica comienza a discutir seriamente lo que esto significa.

Resumen

  • Un tuit del comentarista de IA Xiao Hu (@xiaohu) ha sacado a la luz el modelo “Mito” en pruebas internas de Anthropic. Los datos en caché filtrados incluyen materiales preliminares sobre codificación, razonamiento académico y rendimiento en ciberseguridad.
  • Anthropic ha confirmado la existencia del modelo, diciendo que está realizando pruebas tempranas con unos pocos clientes. Se cree ampliamente que es significativamente más fuerte que Opus, incluso altos ejecutivos de otros laboratorios están prestando atención.
  • Para el campo de la criptografía, esto es una espada de doble filo: por un lado, puede fortalecer la auditoría de contratos inteligentes, y por otro, puede permitir una localización y explotación más rápida de vulnerabilidades en la cadena.
  • Juicio final: ambos lados, ataque y defensa, acelerarán, el ritmo y el umbral de la confrontación de seguridad están aumentando.

Análisis

Según un informe de CoinDesk del 27-28 de marzo de 2026:

  • Los materiales filtrados muestran que “Mito” supera claramente a Opus en múltiples pruebas de referencia (incluyendo tareas de ciberseguridad), indicando que la competencia entre Anthropic y OpenAI ha entrado en una nueva fase. Xiao Hu bromeó diciendo que Altman “no puede dormir”, lo que refleja la sensación general en la industria sobre la intensificación de la competencia.
  • Esto se alinea con la tendencia habitual de la expansión de la IA: modelos más grandes tienden a desbloquear nuevos escenarios como “aplicaciones autónomas” y “descubrimiento automatizado de vulnerabilidades”. Pero los documentos preliminares mencionan directamente “riesgos de ciberseguridad sin precedentes”, la tensión entre ataque y defensa es muy evidente.
  • Los proyectos de IA descentralizada (como Bittensor) enfrentan un problema a medio y largo plazo: los laboratorios centralizados continúan elevando la curva de rendimiento, y si no pueden seguir el ritmo de la iteración, la prima narrativa y la correlación marginal se verán comprimidas.
  • La filtración en sí es un error básico de operaciones y mantenimiento. Esto nos recuerda nuevamente: las debilidades de seguridad provienen primero de las personas, no del modelo en sí.

Evaluación de impacto

  • Importancia: Alta
  • Categoría: Progreso del modelo / Seguridad / Investigación

Puntos clave

  • Se ha elevado el umbral de rendimiento: superando a Opus en tareas de codificación y seguridad, las capacidades de vanguardia se han elevado nuevamente.
  • Aceleración simultánea en ataque y defensa: herramientas de auditoría más fuertes, pero las cadenas de ataque también se han comprimido.
  • Lecciones de operaciones: una caché no asegurada condujo a la filtración, nuevamente demostrando que el error humano es la mayor fuente de riesgo.
  • Revalorización del financiamiento: los tokens de IA descentralizada (como el TAO de Bittensor) pueden verse presionados; los proyectos relacionados con la seguridad tienen ventajas relativas.
  • Efecto de opinión pública: la divulgación de Xiao Hu ha amplificado el impacto de este asunto en el círculo chino, lo que podría influir en la discusión política.

Contexto

  • Rutas de difusión: tuit de Xiao Hu → atención externa → confirmación de prueba interna por Anthropic → seguimiento de medios (CoinDesk).
  • Dimensiones de mejora de capacidades: codificación, razonamiento académico, ciberseguridad.
  • Riesgos evidentes: la automatización del descubrimiento de vulnerabilidades, la explotación de vulnerabilidades y los umbrales de expansión horizontal están disminuyendo.

Grupos potencialmente afectados

  • Desarrolladores y equipos de seguridad:
    • Beneficios: herramientas de análisis estático/dinámico más fuertes disponibles.
    • Desventajas: el ciclo de descubrimiento a explotación de vulnerabilidades cero se ha comprimido, la ventana de auditoría es más estrecha.
  • Comerciantes y financiadores:
    • Beneficios: aumento en la atención a la pista de seguridad, podría haber flujos de financiamiento temporales.
    • Desventajas: la narrativa de IA descentralizada podría verse reprimida por la “brecha de rendimiento”, los tokens relacionados pueden verse presionados.
  • Actores del ecosistema e infraestructura:
    • Prioridades: recompensas por vulnerabilidades, monitoreo en tiempo real, configuraciones de retroceso y mecanismos de seguros.

Etiquetas

Modelos de IA, competencia, seguridad, investigación

Conclusión: Ante esta noticia, los equipos de seguridad deben actuar de inmediato, los comerciantes pueden considerar jugar con los rendimientos relativos de la pista de seguridad, los tenedores a largo plazo y los fondos deben aumentar el presupuesto de seguridad y monitorear el ritmo de ataque y defensa. Los proyectos que pierdan la ventana de refuerzo actual se verán en una posición muy pasiva.

TAO1,31%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado