LLM no puede juzgar de manera confiable el estado del mundo real, y los agentes de IA enfrentan una alta vulnerabilidad en su ejecución. Nos falta la Máquina de oráculo (Agent Oracle), que es la piedra angular de todo el ecosistema de agentes, pero ha sido ignorada durante mucho tiempo. La capacidad de LLM es, por naturaleza, generar el texto con la probabilidad óptima, en lugar de ser un sistema que infiere la verdad del mundo. No verifica la veracidad de las noticias, ni identifica enlaces de phishing; estas son funciones de “verificación de hechos” en lugar de “predicción de lenguaje”.
Los puntos ciegos mortales de LLM: incapacidad para verificar la verdad del mundo
¿Por qué LLM no es suficiente? Porque la esencia de la capacidad de LLM es generar texto con la probabilidad óptima, y no es un sistema que infiera la verdad del mundo. Esta distinción es crucial, pero a menudo se pasa por alto. Cuando le preguntas a ChatGPT “¿Cuál es el precio del bitcoin hoy?”, la respuesta que proporciona no proviene de una consulta en tiempo real, sino que es una respuesta generada basada en datos de entrenamiento y patrones estadísticos de lo “más probablemente correcto”. Si los datos de entrenamiento están desactualizados o contienen información errónea, LLM generará respuestas incorrectas sin dudar, y se comportará con una gran confianza.
Esta característica tiene un impacto limitado en la conversación diaria, pero es mortal cuando un Agente de IA ejecuta tareas reales. Cuando el Agente necesita abrir una cuenta, realizar transacciones, acceder a sitios web o enviar formularios, se expone a una vulnerabilidad extremadamente alta. No verifica la veracidad de las noticias, no identifica enlaces de phishing, no determina si una API está contaminada, no comprende si una regulación está realmente en vigor y no puede captar con precisión la verdadera inclinación detrás del discurso de Powell.
Un ejemplo concreto: supongamos que dejas que un Agente de IA te ayude a comprar una nueva moneda. El Agente podría: (1) buscar información sobre la moneda, pero no puede determinar si la fuente de información es confiable; (2) encontrar un sitio de intercambio que parece legítimo, pero no puede identificar si es un sitio de phishing; (3) ejecutar la transacción, pero no puede verificar si el contrato inteligente contiene puertas traseras; (4) confirmar que la transacción fue exitosa, pero en realidad los fondos han sido robados. Durante todo el proceso, el LLM está “haciendo su trabajo”, pero la falta de capacidad para verificar la realidad significa que cada paso podría estar equivocado.
Estos pertenecen a la “verificación (verification)”, y no a la “predicción (prediction)”. Por lo tanto, un LLM nunca podrá convertirse en la “fuente de verdad” de un Agente. No importa cuán poderoso se vuelva GPT-5 o GPT-6, esta limitación esencial no cambiará, ya que es un problema a nivel de arquitectura, no un problema de fuerza de capacidad.
LLM en los cinco puntos ciegos en la evaluación de la realidad
Verificación de la veracidad de las noticias: incapaz de distinguir entre informes reales y noticias falsas o contenido generado por IA
Capacidad de identificación de phishing: no se puede determinar si el sitio web, el correo electrónico o el enlace son fraudulentos.
Detección de contaminación de API: no se puede verificar si la fuente de datos ha sido alterada o si ha habido un ataque de intermediario.
Juicio sobre la efectividad de la normativa: No se puede confirmar si cierta ley ha entrado realmente en vigor o cómo se aplica.
Intención detrás del significado: No se puede entender el verdadero significado de lo que dicen los funcionarios y los anuncios de la empresa.
Limitaciones de la Máquina de oráculo tradicional: verdad del precio vs verdad del evento
Los oráculos tradicionales no resuelven este problema. Chainlink, Band Protocol y otros oráculos tradicionales son buenos en la verdad de precios: ETH/USD, BTC/BNB, índices, divisas, TVL en cadena, este tipo de datos estructurados, cuantificables y observables. Estos datos tienen fuentes de datos claras (API de intercambio), formatos estandarizados (números) y métodos de verificación objetivos (consenso de múltiples nodos).
Pero la realidad a la que se enfrenta un Agente de IA es completamente diferente: eventos no estructurados, conflictos de múltiples fuentes, juicios semánticos, cambios en tiempo real, fronteras difusas—esta es la verdad de los eventos, que es un orden de magnitud más compleja que la verdad de los precios. Por ejemplo: “¿Es cierta una noticia?” requiere verificar múltiples fuentes, analizar el estilo del lenguaje, comprobar la autenticidad de las imágenes, rastrear la fuente de la información; “¿Es confiable un proyecto?” requiere evaluar el historial del equipo, los informes de auditoría, el feedback de la comunidad, el rendimiento histórico; “¿Sugiere un tweet algún beneficio?” requiere entender el contexto, analizar la emoción, juzgar la intención del hablante.
La verdad del evento ≠ la verdad del precio, los mecanismos de ambos son completamente diferentes. La verdad del precio se puede obtener a través del promedio ponderado de precios de múltiples intercambios, con fuentes de datos claras y fáciles de verificar. La verdad del evento implica comprensión semántica, análisis de contexto y verificación cruzada de múltiples fuentes, cosas que el mecanismo de votación de nodos de la Máquina de oráculo tradicional no puede manejar. Los nodos pueden verificar que “el precio de BTC devuelto por la API de un intercambio es de 87,000 dólares”, pero no pueden verificar “si una noticia es creíble” o “si un contrato inteligente es seguro.”
Intento revolucionario de Sora: mercado de verificación de eventos
El mercado de verificación de eventos propuesto por Sora es el intento más cercano a la dirección correcta en la actualidad. La transformación clave de Sora es: la verdad ya no se produce por el voto de los nodos, sino por los Agentes que llevan a cabo tareas de verificación reales. Una consulta pasará por la captura de datos (TLS, Hash, IPFS), filtrado de valores atípicos (MAD), verificación semántica LLM, agregación ponderada por reputación de múltiples Agentes, actualización de reputación y sanciones por desafío.
La clave de la visión de Sora es Earn = Reputación: los ingresos provienen de la reputación, y la reputación proviene de un trabajo real a largo plazo, no de un stake o una auto-declaración. Esta dirección es muy revolucionaria, porque transforma la Máquina de oráculo de “cotización pasiva” a “verificación activa”. El agente no simplemente extrae datos de una API y los reporta, sino que debe realizar un trabajo de verificación real: acceder a múltiples sitios web, comparar diferentes fuentes, analizar la veracidad del contenido y proporcionar una puntuación de confianza.
Sin embargo, Sora sigue siendo insuficientemente abierto. Los expertos en verificación de eventos del mundo real son extremadamente diversos, abarcando finanzas, regulaciones, salud, multilingüismo, así como auditorías de seguridad, detección de fraudes, monitoreo en cadena y experiencia en la industria; ningún equipo único puede construir un grupo de Agentes que cubra todos estos ámbitos. Es como intentar establecer una empresa que incluya a todos los expertos de diferentes áreas, lo cual es imposible en la práctica. El verdadero conocimiento especializado está disperso entre millones de expertos en todo el mundo, y las plataformas cerradas no pueden integrar eficazmente este conocimiento.
ERC8004 + x402: mercado de juego de verdad abierto
Lo que necesitamos es un “mercado de juego de la verdad” abierto y con la participación de múltiples sujetos. ¿Por qué? Porque la forma en que los humanos obtienen la verdad no es preguntando a un experto, sino consultando múltiples fuentes, preguntando a varios amigos, escuchando a varios KOL, y luego extrayendo una comprensión estable de los conflictos. El mundo de los Agentes de IA también debe evolucionar a lo largo de este mecanismo.
La combinación de ERC8004 + x402 proporciona un marco técnico. ERC8004 se encarga de establecer una capa de reputación programable que registra el historial de rendimiento de cada Agente, el número de llamadas, casos de éxito, registros de desafíos, áreas de especialización, estabilidad, etc., permitiendo que la “carrera verificable” determine naturalmente la elegibilidad del Agente para participar. Esto es similar al sistema de currículums y cartas de recomendación en la sociedad humana, pero completamente transparente e inalterable.
x402 Responsable del nivel de pago, a través del cual podemos reunir dinámicamente a múltiples Agentes de alta reputación en una sola verificación de evento, permitiendo que validen en paralelo, realicen verificación cruzada y, según la contribución, agreguen el resultado ponderado. No se trata de buscar un experto, sino de convocar un comité: esta es la “comisión de verdad” del mundo de las máquinas. Cuando se necesita verificar una noticia, el sistema puede convocar a 10 Agentes especializados en ese campo, cada uno ejecutando la validación, proporcionando calificaciones y evidencia, y finalmente llegando a una conclusión a través del peso de la reputación.
La ventaja de este mecanismo radica en su capacidad de autoevolución. Los agentes que se desempeñan bien acumulan reputación, obtienen más oportunidades de trabajo y mayores ingresos; los agentes que se desempeñan mal pierden reputación y son gradualmente eliminados del mercado. No se necesita un mecanismo de auditoría o acceso centralizado, el mercado selecciona naturalmente a los verificadores más confiables. Esta apertura también permite que cualquier persona despliegue agentes profesionales en el mercado; siempre que puedan proporcionar verificaciones de alta calidad, podrán ganar ingresos.
Un mercado de la verdad abierto, multipolar, con ponderación de reputación, incentivos a través de desafíos y capaz de evolucionar automáticamente, podría ser la verdadera forma del futuro Máquina de oráculo. Esto no solo sirve a los Agentes de IA, sino que también podría transformar la forma en que los humanos obtienen información.
Capa de verdad semántica social de la intuición
Al mismo tiempo, Intuition está construyendo otra capa: la verdad semántica (Semantic Truth). No todas las verdades se pueden derivar de la verificación de eventos, como “¿Es confiable cierto proyecto?”, “¿Es buena la calidad de gobernanza?”, “¿Le gusta a la comunidad cierto producto?”, “¿Es confiable cierto desarrollador?”, “¿Es cierto cierto punto de vista que es reconocido por la corriente principal?”. Estas no son respuestas de Sí/No, sino un consenso social, que es adecuado para ser expresado mediante el trío de TRUST (Átomo - Predicado - Objeto), y se acumula la intensidad del consenso a través del apoyo o la oposición de stake.
Es aplicable a hechos a largo plazo como reputación, preferencias, niveles de riesgo, etiquetas, etc. Este mecanismo de consenso social complementa los ámbitos que la verificación de eventos no puede cubrir. La verificación de eventos es adecuada para responder a “¿ha ocurrido algo?”, mientras que el consenso social es adecuado para responder a “¿qué significa algo?” o “¿cómo se evalúa un sujeto?”.
Sin embargo, la experiencia del producto de Intuition actualmente es realmente mala, por ejemplo, para establecer “V es el fundador de Ethereum”, todas las palabras relacionadas deben tener una identidad en el sistema, el proceso es muy torpe. El punto de dolor es claro, pero su solución actualmente no es lo suficientemente buena. Este tipo de problema de experiencia del usuario puede limitar su adopción, pero la dirección del concepto central es correcta.
Arquitectura de pila de tres capas del futuro
Por lo tanto, la estructura de la verdad futura presentará dos capas complementarias: la verdad de los eventos (Agente Máquina de oráculo) es responsable del mundo en tiempo real, mientras que la verdad semántica (TRUST) es responsable del consenso a largo plazo, ambas juntas constituyen la base de la verdad de la IA. La pila de realidad (Reality Stack) se dividirá claramente en tres capas:
Reality Stack tres capas de arquitectura
Capa de verdad del evento: Sora / ERC8004 + x402, responsable de la verificación de eventos en tiempo real y el juicio del estado del mundo real.
Capa de verdad semántica: CONFIANZA / Intuición, responsable del consenso social, evaluación de la reputación y hechos a largo plazo.
Capa de liquidación: Blockchain L1/L2, proporciona registros inalterables y un mecanismo de incentivos económicos.
Esta estructura muy probablemente se convertirá en la verdadera base de AI × Web3. Sin la Máquina de oráculo, los Agentes de AI no pueden verificar la veracidad, juzgar el origen, evadir fraudes, evitar la contaminación de datos, asumir acciones de alto riesgo y hacer un cross-check como los humanos. Sin ella, la economía de Agentes no puede establecerse; pero con ella, por primera vez podemos establecer una capa de realidad verificable para la AI.
El futuro de la Máquina de oráculo no será una red de nodos, sino que estará compuesta por innumerables Agentes profesionales: ellos acumulan reputación a través de ingresos, participan en la verificación mediante la reputación, obtienen nuevos trabajos y desafíos a través de la verificación, colaboran automáticamente, se dividen el trabajo automáticamente y evolucionan por sí mismos, expandiéndose finalmente a todos los campos del conocimiento. Ese será un verdadero mercado de verdad de la sociedad de máquinas en un sentido pleno.
La blockchain nos proporciona un libro de contabilidad confiable, mientras que la era de los Agentes de IA necesita realidades confiables, eventos confiables, semánticas confiables, juicios confiables y ejecuciones confiables. Agente Máquina de oráculo = la base real de la IA. El futuro pertenece a aquellos protocolos que pueden ayudar a las máquinas a entender el mundo real.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¡La mayor vulnerabilidad de la economía de IA! Sin Máquina de oráculo, no se pueden juzgar la verdad y la falsedad, enfrentando el riesgo de colapso.
LLM no puede juzgar de manera confiable el estado del mundo real, y los agentes de IA enfrentan una alta vulnerabilidad en su ejecución. Nos falta la Máquina de oráculo (Agent Oracle), que es la piedra angular de todo el ecosistema de agentes, pero ha sido ignorada durante mucho tiempo. La capacidad de LLM es, por naturaleza, generar el texto con la probabilidad óptima, en lugar de ser un sistema que infiere la verdad del mundo. No verifica la veracidad de las noticias, ni identifica enlaces de phishing; estas son funciones de “verificación de hechos” en lugar de “predicción de lenguaje”.
Los puntos ciegos mortales de LLM: incapacidad para verificar la verdad del mundo
¿Por qué LLM no es suficiente? Porque la esencia de la capacidad de LLM es generar texto con la probabilidad óptima, y no es un sistema que infiera la verdad del mundo. Esta distinción es crucial, pero a menudo se pasa por alto. Cuando le preguntas a ChatGPT “¿Cuál es el precio del bitcoin hoy?”, la respuesta que proporciona no proviene de una consulta en tiempo real, sino que es una respuesta generada basada en datos de entrenamiento y patrones estadísticos de lo “más probablemente correcto”. Si los datos de entrenamiento están desactualizados o contienen información errónea, LLM generará respuestas incorrectas sin dudar, y se comportará con una gran confianza.
Esta característica tiene un impacto limitado en la conversación diaria, pero es mortal cuando un Agente de IA ejecuta tareas reales. Cuando el Agente necesita abrir una cuenta, realizar transacciones, acceder a sitios web o enviar formularios, se expone a una vulnerabilidad extremadamente alta. No verifica la veracidad de las noticias, no identifica enlaces de phishing, no determina si una API está contaminada, no comprende si una regulación está realmente en vigor y no puede captar con precisión la verdadera inclinación detrás del discurso de Powell.
Un ejemplo concreto: supongamos que dejas que un Agente de IA te ayude a comprar una nueva moneda. El Agente podría: (1) buscar información sobre la moneda, pero no puede determinar si la fuente de información es confiable; (2) encontrar un sitio de intercambio que parece legítimo, pero no puede identificar si es un sitio de phishing; (3) ejecutar la transacción, pero no puede verificar si el contrato inteligente contiene puertas traseras; (4) confirmar que la transacción fue exitosa, pero en realidad los fondos han sido robados. Durante todo el proceso, el LLM está “haciendo su trabajo”, pero la falta de capacidad para verificar la realidad significa que cada paso podría estar equivocado.
Estos pertenecen a la “verificación (verification)”, y no a la “predicción (prediction)”. Por lo tanto, un LLM nunca podrá convertirse en la “fuente de verdad” de un Agente. No importa cuán poderoso se vuelva GPT-5 o GPT-6, esta limitación esencial no cambiará, ya que es un problema a nivel de arquitectura, no un problema de fuerza de capacidad.
LLM en los cinco puntos ciegos en la evaluación de la realidad
Verificación de la veracidad de las noticias: incapaz de distinguir entre informes reales y noticias falsas o contenido generado por IA
Capacidad de identificación de phishing: no se puede determinar si el sitio web, el correo electrónico o el enlace son fraudulentos.
Detección de contaminación de API: no se puede verificar si la fuente de datos ha sido alterada o si ha habido un ataque de intermediario.
Juicio sobre la efectividad de la normativa: No se puede confirmar si cierta ley ha entrado realmente en vigor o cómo se aplica.
Intención detrás del significado: No se puede entender el verdadero significado de lo que dicen los funcionarios y los anuncios de la empresa.
Limitaciones de la Máquina de oráculo tradicional: verdad del precio vs verdad del evento
Los oráculos tradicionales no resuelven este problema. Chainlink, Band Protocol y otros oráculos tradicionales son buenos en la verdad de precios: ETH/USD, BTC/BNB, índices, divisas, TVL en cadena, este tipo de datos estructurados, cuantificables y observables. Estos datos tienen fuentes de datos claras (API de intercambio), formatos estandarizados (números) y métodos de verificación objetivos (consenso de múltiples nodos).
Pero la realidad a la que se enfrenta un Agente de IA es completamente diferente: eventos no estructurados, conflictos de múltiples fuentes, juicios semánticos, cambios en tiempo real, fronteras difusas—esta es la verdad de los eventos, que es un orden de magnitud más compleja que la verdad de los precios. Por ejemplo: “¿Es cierta una noticia?” requiere verificar múltiples fuentes, analizar el estilo del lenguaje, comprobar la autenticidad de las imágenes, rastrear la fuente de la información; “¿Es confiable un proyecto?” requiere evaluar el historial del equipo, los informes de auditoría, el feedback de la comunidad, el rendimiento histórico; “¿Sugiere un tweet algún beneficio?” requiere entender el contexto, analizar la emoción, juzgar la intención del hablante.
La verdad del evento ≠ la verdad del precio, los mecanismos de ambos son completamente diferentes. La verdad del precio se puede obtener a través del promedio ponderado de precios de múltiples intercambios, con fuentes de datos claras y fáciles de verificar. La verdad del evento implica comprensión semántica, análisis de contexto y verificación cruzada de múltiples fuentes, cosas que el mecanismo de votación de nodos de la Máquina de oráculo tradicional no puede manejar. Los nodos pueden verificar que “el precio de BTC devuelto por la API de un intercambio es de 87,000 dólares”, pero no pueden verificar “si una noticia es creíble” o “si un contrato inteligente es seguro.”
Intento revolucionario de Sora: mercado de verificación de eventos
El mercado de verificación de eventos propuesto por Sora es el intento más cercano a la dirección correcta en la actualidad. La transformación clave de Sora es: la verdad ya no se produce por el voto de los nodos, sino por los Agentes que llevan a cabo tareas de verificación reales. Una consulta pasará por la captura de datos (TLS, Hash, IPFS), filtrado de valores atípicos (MAD), verificación semántica LLM, agregación ponderada por reputación de múltiples Agentes, actualización de reputación y sanciones por desafío.
La clave de la visión de Sora es Earn = Reputación: los ingresos provienen de la reputación, y la reputación proviene de un trabajo real a largo plazo, no de un stake o una auto-declaración. Esta dirección es muy revolucionaria, porque transforma la Máquina de oráculo de “cotización pasiva” a “verificación activa”. El agente no simplemente extrae datos de una API y los reporta, sino que debe realizar un trabajo de verificación real: acceder a múltiples sitios web, comparar diferentes fuentes, analizar la veracidad del contenido y proporcionar una puntuación de confianza.
Sin embargo, Sora sigue siendo insuficientemente abierto. Los expertos en verificación de eventos del mundo real son extremadamente diversos, abarcando finanzas, regulaciones, salud, multilingüismo, así como auditorías de seguridad, detección de fraudes, monitoreo en cadena y experiencia en la industria; ningún equipo único puede construir un grupo de Agentes que cubra todos estos ámbitos. Es como intentar establecer una empresa que incluya a todos los expertos de diferentes áreas, lo cual es imposible en la práctica. El verdadero conocimiento especializado está disperso entre millones de expertos en todo el mundo, y las plataformas cerradas no pueden integrar eficazmente este conocimiento.
ERC8004 + x402: mercado de juego de verdad abierto
Lo que necesitamos es un “mercado de juego de la verdad” abierto y con la participación de múltiples sujetos. ¿Por qué? Porque la forma en que los humanos obtienen la verdad no es preguntando a un experto, sino consultando múltiples fuentes, preguntando a varios amigos, escuchando a varios KOL, y luego extrayendo una comprensión estable de los conflictos. El mundo de los Agentes de IA también debe evolucionar a lo largo de este mecanismo.
La combinación de ERC8004 + x402 proporciona un marco técnico. ERC8004 se encarga de establecer una capa de reputación programable que registra el historial de rendimiento de cada Agente, el número de llamadas, casos de éxito, registros de desafíos, áreas de especialización, estabilidad, etc., permitiendo que la “carrera verificable” determine naturalmente la elegibilidad del Agente para participar. Esto es similar al sistema de currículums y cartas de recomendación en la sociedad humana, pero completamente transparente e inalterable.
x402 Responsable del nivel de pago, a través del cual podemos reunir dinámicamente a múltiples Agentes de alta reputación en una sola verificación de evento, permitiendo que validen en paralelo, realicen verificación cruzada y, según la contribución, agreguen el resultado ponderado. No se trata de buscar un experto, sino de convocar un comité: esta es la “comisión de verdad” del mundo de las máquinas. Cuando se necesita verificar una noticia, el sistema puede convocar a 10 Agentes especializados en ese campo, cada uno ejecutando la validación, proporcionando calificaciones y evidencia, y finalmente llegando a una conclusión a través del peso de la reputación.
La ventaja de este mecanismo radica en su capacidad de autoevolución. Los agentes que se desempeñan bien acumulan reputación, obtienen más oportunidades de trabajo y mayores ingresos; los agentes que se desempeñan mal pierden reputación y son gradualmente eliminados del mercado. No se necesita un mecanismo de auditoría o acceso centralizado, el mercado selecciona naturalmente a los verificadores más confiables. Esta apertura también permite que cualquier persona despliegue agentes profesionales en el mercado; siempre que puedan proporcionar verificaciones de alta calidad, podrán ganar ingresos.
Un mercado de la verdad abierto, multipolar, con ponderación de reputación, incentivos a través de desafíos y capaz de evolucionar automáticamente, podría ser la verdadera forma del futuro Máquina de oráculo. Esto no solo sirve a los Agentes de IA, sino que también podría transformar la forma en que los humanos obtienen información.
Capa de verdad semántica social de la intuición
Al mismo tiempo, Intuition está construyendo otra capa: la verdad semántica (Semantic Truth). No todas las verdades se pueden derivar de la verificación de eventos, como “¿Es confiable cierto proyecto?”, “¿Es buena la calidad de gobernanza?”, “¿Le gusta a la comunidad cierto producto?”, “¿Es confiable cierto desarrollador?”, “¿Es cierto cierto punto de vista que es reconocido por la corriente principal?”. Estas no son respuestas de Sí/No, sino un consenso social, que es adecuado para ser expresado mediante el trío de TRUST (Átomo - Predicado - Objeto), y se acumula la intensidad del consenso a través del apoyo o la oposición de stake.
Es aplicable a hechos a largo plazo como reputación, preferencias, niveles de riesgo, etiquetas, etc. Este mecanismo de consenso social complementa los ámbitos que la verificación de eventos no puede cubrir. La verificación de eventos es adecuada para responder a “¿ha ocurrido algo?”, mientras que el consenso social es adecuado para responder a “¿qué significa algo?” o “¿cómo se evalúa un sujeto?”.
Sin embargo, la experiencia del producto de Intuition actualmente es realmente mala, por ejemplo, para establecer “V es el fundador de Ethereum”, todas las palabras relacionadas deben tener una identidad en el sistema, el proceso es muy torpe. El punto de dolor es claro, pero su solución actualmente no es lo suficientemente buena. Este tipo de problema de experiencia del usuario puede limitar su adopción, pero la dirección del concepto central es correcta.
Arquitectura de pila de tres capas del futuro
Por lo tanto, la estructura de la verdad futura presentará dos capas complementarias: la verdad de los eventos (Agente Máquina de oráculo) es responsable del mundo en tiempo real, mientras que la verdad semántica (TRUST) es responsable del consenso a largo plazo, ambas juntas constituyen la base de la verdad de la IA. La pila de realidad (Reality Stack) se dividirá claramente en tres capas:
Reality Stack tres capas de arquitectura
Capa de verdad del evento: Sora / ERC8004 + x402, responsable de la verificación de eventos en tiempo real y el juicio del estado del mundo real.
Capa de verdad semántica: CONFIANZA / Intuición, responsable del consenso social, evaluación de la reputación y hechos a largo plazo.
Capa de liquidación: Blockchain L1/L2, proporciona registros inalterables y un mecanismo de incentivos económicos.
Esta estructura muy probablemente se convertirá en la verdadera base de AI × Web3. Sin la Máquina de oráculo, los Agentes de AI no pueden verificar la veracidad, juzgar el origen, evadir fraudes, evitar la contaminación de datos, asumir acciones de alto riesgo y hacer un cross-check como los humanos. Sin ella, la economía de Agentes no puede establecerse; pero con ella, por primera vez podemos establecer una capa de realidad verificable para la AI.
El futuro de la Máquina de oráculo no será una red de nodos, sino que estará compuesta por innumerables Agentes profesionales: ellos acumulan reputación a través de ingresos, participan en la verificación mediante la reputación, obtienen nuevos trabajos y desafíos a través de la verificación, colaboran automáticamente, se dividen el trabajo automáticamente y evolucionan por sí mismos, expandiéndose finalmente a todos los campos del conocimiento. Ese será un verdadero mercado de verdad de la sociedad de máquinas en un sentido pleno.
La blockchain nos proporciona un libro de contabilidad confiable, mientras que la era de los Agentes de IA necesita realidades confiables, eventos confiables, semánticas confiables, juicios confiables y ejecuciones confiables. Agente Máquina de oráculo = la base real de la IA. El futuro pertenece a aquellos protocolos que pueden ayudar a las máquinas a entender el mundo real.