Mientras la comunidad de IA hervía por las controversias de seguridad en torno al modelo Mythos de Anthropic, el ganador del Premio Turing y científico de IA jefe de Meta, Yann LeCun, publicó en X una declaración breve: «No habrá que responsabilizar a ninguna persona en particular por una superinteligencia». Este tuit obtuvo 935 me gusta y más de 100 respuestas, ofreciendo una perspectiva de gobernanza radicalmente distinta en el ambiente de pánico provocado por Mythos.
La filosofía de gobernanza detrás de una sola frase
La declaración de LeCun parece simple, pero en realidad apunta a un error de pensamiento fundamental en el debate sobre la gobernanza de la IA: simplificar el riesgo de la superinteligencia como un problema de «quién controla». Cuando las personas hablan sobre seguridad de IA, una narrativa común es buscar un «responsable»—una empresa, una institución gubernamental o un líder técnico—para «controlar» la dirección del desarrollo de la IA. LeCun considera que el propio supuesto está equivocado.
Esta postura coincide con su filosofía abierta de IA: la gobernanza de la IA debe ser descentralizada, sistémica y con participación de múltiples partes, en lugar de concentrarse en manos de una sola entidad.
Pensar al revés en la controversia de Mythos
El momento en que LeCun se pronunció es revelador. Justo ese mismo día, Matt Shumer describió el modelo Mythos de Anthropic como «un arma de red», y Ethan Mollick expresó su asombro con un «Oh no.». La lógica implícita de estas reacciones es: una IA tan poderosa debe estar estrictamente controlada, idealmente gestionada por un «portero» responsable.
La postura de LeCun es justo lo contrario: no cree que «una empresa decida no publicar» sea una garantía de seguridad. Si solo unas pocas empresas poseen IA de nivel superinteligente y las decisiones unilaterales de esas compañías pueden determinar la trayectoria global del desarrollo de la IA, eso en sí mismo constituye un riesgo. El control centralizado no equivale a seguridad; al contrario, puede crear desequilibrios de poder nuevos.
Los desafíos de la gobernanza descentralizada
La postura de LeCun también enfrenta desafíos reales. La gobernanza descentralizada suena ideal, pero en la realidad de que las capacidades de la IA crecen de manera exponencial, «no hay nadie responsable» podría significar «no hay nadie que pueda ser responsable». Cuando un modelo puede encontrar vulnerabilidades de día cero, ¿el acceso abierto sigue siendo la mejor estrategia?
Ese es el núcleo de la contradicción actual en el debate sobre la gobernanza de la IA: el riesgo de que el control centralizado sea abusado por tener poder, y el riesgo de que la apertura descentralizada sea abusada por tener capacidad. La frase de LeCun no resuelve esta contradicción, pero obliga a las personas a reconsiderar si la solución aparentemente intuitiva de «responsabilizar a alguien» realmente es viable.
Implicaciones para el debate sobre la gobernanza de la IA
Entre el pánico provocado por Mythos y la reflexión serena de LeCun, vemos la divergencia fundamental entre dos escuelas de pensamiento en gobernanza de la IA: los partidarios de la seguridad abogan por limitar capacidades y por el control centralizado, mientras que los partidarios de la apertura abogan por el acceso amplio y por la gobernanza descentralizada. Este debate no tendrá una conclusión sencilla, pero para los responsables de la toma de decisiones en Taiwán que se enfocan en políticas de IA, comprender la tensión entre estos dos extremos es una tarea necesaria para formular estrategias locales de gobernanza de la IA.
Este artículo, en respuesta a la controversia sobre superinteligencia con una sola frase de LeCun, apareció por primera vez en Cadena News ABMedia.