El modelo Manus logra resultados SOTA, provocando discusiones sobre la trayectoria de desarrollo de la IA y cuestiones de seguridad.
Manus ha demostrado un rendimiento excepcional en las pruebas de referencia de GAIA, superando a los modelos de lenguaje de gran tamaño de nivel similar. Esto significa que puede manejar de manera independiente tareas complejas, como negociaciones comerciales multinacionales, que involucran el análisis de contratos, la formulación de estrategias y la generación de propuestas en múltiples aspectos. La ventaja de Manus radica en su capacidad de descomposición dinámica de objetivos, razonamiento multimodal y aprendizaje mejorado por memoria. Puede descomponer tareas complejas en cientos de subtareas ejecutables, manejar múltiples tipos de datos y mejorar continuamente la eficiencia de la toma de decisiones y reducir la tasa de errores a través del aprendizaje por refuerzo.
Los avances revolucionarios de Manus han vuelto a suscitar en la industria el debate sobre la trayectoria del desarrollo de la IA: ¿debería seguir un modelo unificado hacia la inteligencia artificial general (AGI) o un modelo colaborativo de sistemas multi-agente (MAS)?
Esta discusión se origina en la filosofía de diseño de Manus, que sugiere dos posibles direcciones de desarrollo:
Ruta AGI: A través de la mejora continua de las capacidades integrales de un único sistema inteligente, acercándolo al nivel de toma de decisiones de los humanos.
Ruta MAS: utilizar Manus como un supercoordinador para dirigir a numerosos agentes inteligentes de diversas áreas profesionales para trabajar en colaboración.
A simple vista, se trata de un debate sobre las rutas tecnológicas, pero en esencia refleja el problema del equilibrio entre la eficiencia y la seguridad en el desarrollo de la IA. Cuanto más cerca esté un sistema de inteligencia única de la AGI, mayor será el riesgo de falta de transparencia en su proceso de toma de decisiones; mientras que los sistemas de múltiples agentes, aunque pueden diversificar el riesgo, pueden perder oportunidades clave de decisión debido a la latencia en la comunicación.
Los avances de Manus también destacan los riesgos inherentes en el desarrollo de la IA. Por ejemplo, en el ámbito médico, necesita acceder a datos sensibles de los pacientes; en las negociaciones financieras, puede involucrar información empresarial no pública. Además, existe el problema del sesgo algorítmico, como en el proceso de contratación, donde puede haber sugerencias salariales injustas para ciertos grupos. En la revisión de documentos legales, la tasa de error en la interpretación de cláusulas relacionadas con industrias emergentes también es alta. Más grave aún, los hackers pueden engañar a Manus en las negociaciones al insertar señales de voz específicas, llevándolo a tomar decisiones erróneas.
Estas cuestiones destacan una dura realidad: cuanto más avanzados son los sistemas inteligentes, más vulnerabilidades de seguridad potenciales existen.
En el ámbito de la blockchain y las criptomonedas, la seguridad ha sido un enfoque central. La teoría del "triángulo imposible" propuesta por el fundador de Ethereum, Vitalik Buterin (la seguridad, la descentralización y la escalabilidad no se pueden lograr simultáneamente) ha inspirado diversas estrategias de seguridad:
Modelo de seguridad de cero confianza: basado en el principio de "nunca confiar, siempre verificar", se lleva a cabo una verificación y autorización estrictas de cada solicitud de acceso.
Identidad descentralizada (DID): un estándar de identificación que no requiere un registro centralizado, que admite la autenticación de identidad verificable y persistente.
Cifrado totalmente homomórfico (FHE): una técnica de cifrado avanzada que permite realizar cálculos directamente sobre datos cifrados, especialmente adecuada para escenarios como la computación en la nube y la externalización de datos.
Estas políticas de seguridad ofrecen importantes ideas para abordar los desafíos de seguridad en la era de la IA. En particular, la técnica de cifrado homomórfico total se considera una herramienta poderosa para enfrentar los problemas de seguridad de la IA.
La tecnología FHE puede mejorar la seguridad de los sistemas de IA en los siguientes niveles:
Capa de datos: toda la información ingresada por el usuario (incluidos rasgos biométricos, voz, etc.) se procesa en estado encriptado, ni siquiera el sistema de IA puede descifrar los datos originales.
Nivel algorítmico: a través de FHE se logra "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no pueden entender directamente el proceso de decisión de la IA.
Nivel de colaboración: La comunicación entre múltiples agentes inteligentes utiliza cifrado umbral, de modo que incluso si un solo nodo es comprometido, no se producirá una filtración de datos global.
Aunque estas tecnologías de seguridad pueden parecer lejanas para el usuario común, están estrechamente relacionadas con los intereses de todos. En el "bosque oscuro" del mundo digital, solo fortaleciendo constantemente las defensas de seguridad se puede evitar convertirse en una posible víctima.
En el ámbito de la identidad descentralizada, el proyecto uPort se lanzó en la mainnet de Ethereum en 2017. En cuanto al modelo de seguridad de cero confianza, el proyecto NKN lanzó su mainnet en 2019. En el campo de la criptografía homomórfica completa, Mind Network se convirtió en el primer proyecto FHE en lanzarse en la mainnet y colaboró con instituciones como ZAMA, Google y DeepSeek.
A pesar de que los proyectos de seguridad del pasado pueden no haber recibido una amplia atención de los inversores, la importancia de los problemas de seguridad ha crecido notablemente con el rápido desarrollo de la tecnología de IA. Proyectos como Mind Network merecen nuestra atención continua para ver si pueden convertirse en líderes en el campo de la seguridad.
A medida que la tecnología de IA se acerca cada vez más al nivel de inteligencia humana, necesitamos sistemas de defensa más avanzados. La tecnología FHE no solo puede resolver los problemas actuales, sino que también prepara el camino para una era de IA más poderosa en el futuro. En el camino hacia la AGI, FHE ya no es una opción, sino una condición necesaria para garantizar el desarrollo seguro de la IA.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
8 me gusta
Recompensa
8
5
Compartir
Comentar
0/400
JustHereForMemes
· hace19h
¿Para qué sirve SOTA? No es que no se pueda jugar con la cadena de bloques.
Ver originalesResponder0
ParanoiaKing
· hace19h
La seguridad, por muy caliente que esté el comercio, siempre es solo una teoría.
El modelo Manus lidera el avance de la IA, la encriptación completamente homomórfica se convierte en el nuevo foco de seguridad
El modelo Manus logra resultados SOTA, provocando discusiones sobre la trayectoria de desarrollo de la IA y cuestiones de seguridad.
Manus ha demostrado un rendimiento excepcional en las pruebas de referencia de GAIA, superando a los modelos de lenguaje de gran tamaño de nivel similar. Esto significa que puede manejar de manera independiente tareas complejas, como negociaciones comerciales multinacionales, que involucran el análisis de contratos, la formulación de estrategias y la generación de propuestas en múltiples aspectos. La ventaja de Manus radica en su capacidad de descomposición dinámica de objetivos, razonamiento multimodal y aprendizaje mejorado por memoria. Puede descomponer tareas complejas en cientos de subtareas ejecutables, manejar múltiples tipos de datos y mejorar continuamente la eficiencia de la toma de decisiones y reducir la tasa de errores a través del aprendizaje por refuerzo.
Los avances revolucionarios de Manus han vuelto a suscitar en la industria el debate sobre la trayectoria del desarrollo de la IA: ¿debería seguir un modelo unificado hacia la inteligencia artificial general (AGI) o un modelo colaborativo de sistemas multi-agente (MAS)?
Esta discusión se origina en la filosofía de diseño de Manus, que sugiere dos posibles direcciones de desarrollo:
Ruta AGI: A través de la mejora continua de las capacidades integrales de un único sistema inteligente, acercándolo al nivel de toma de decisiones de los humanos.
Ruta MAS: utilizar Manus como un supercoordinador para dirigir a numerosos agentes inteligentes de diversas áreas profesionales para trabajar en colaboración.
A simple vista, se trata de un debate sobre las rutas tecnológicas, pero en esencia refleja el problema del equilibrio entre la eficiencia y la seguridad en el desarrollo de la IA. Cuanto más cerca esté un sistema de inteligencia única de la AGI, mayor será el riesgo de falta de transparencia en su proceso de toma de decisiones; mientras que los sistemas de múltiples agentes, aunque pueden diversificar el riesgo, pueden perder oportunidades clave de decisión debido a la latencia en la comunicación.
Los avances de Manus también destacan los riesgos inherentes en el desarrollo de la IA. Por ejemplo, en el ámbito médico, necesita acceder a datos sensibles de los pacientes; en las negociaciones financieras, puede involucrar información empresarial no pública. Además, existe el problema del sesgo algorítmico, como en el proceso de contratación, donde puede haber sugerencias salariales injustas para ciertos grupos. En la revisión de documentos legales, la tasa de error en la interpretación de cláusulas relacionadas con industrias emergentes también es alta. Más grave aún, los hackers pueden engañar a Manus en las negociaciones al insertar señales de voz específicas, llevándolo a tomar decisiones erróneas.
Estas cuestiones destacan una dura realidad: cuanto más avanzados son los sistemas inteligentes, más vulnerabilidades de seguridad potenciales existen.
En el ámbito de la blockchain y las criptomonedas, la seguridad ha sido un enfoque central. La teoría del "triángulo imposible" propuesta por el fundador de Ethereum, Vitalik Buterin (la seguridad, la descentralización y la escalabilidad no se pueden lograr simultáneamente) ha inspirado diversas estrategias de seguridad:
Estas políticas de seguridad ofrecen importantes ideas para abordar los desafíos de seguridad en la era de la IA. En particular, la técnica de cifrado homomórfico total se considera una herramienta poderosa para enfrentar los problemas de seguridad de la IA.
La tecnología FHE puede mejorar la seguridad de los sistemas de IA en los siguientes niveles:
Capa de datos: toda la información ingresada por el usuario (incluidos rasgos biométricos, voz, etc.) se procesa en estado encriptado, ni siquiera el sistema de IA puede descifrar los datos originales.
Nivel algorítmico: a través de FHE se logra "entrenamiento de modelos cifrados", de modo que incluso los desarrolladores no pueden entender directamente el proceso de decisión de la IA.
Nivel de colaboración: La comunicación entre múltiples agentes inteligentes utiliza cifrado umbral, de modo que incluso si un solo nodo es comprometido, no se producirá una filtración de datos global.
Aunque estas tecnologías de seguridad pueden parecer lejanas para el usuario común, están estrechamente relacionadas con los intereses de todos. En el "bosque oscuro" del mundo digital, solo fortaleciendo constantemente las defensas de seguridad se puede evitar convertirse en una posible víctima.
En el ámbito de la identidad descentralizada, el proyecto uPort se lanzó en la mainnet de Ethereum en 2017. En cuanto al modelo de seguridad de cero confianza, el proyecto NKN lanzó su mainnet en 2019. En el campo de la criptografía homomórfica completa, Mind Network se convirtió en el primer proyecto FHE en lanzarse en la mainnet y colaboró con instituciones como ZAMA, Google y DeepSeek.
A pesar de que los proyectos de seguridad del pasado pueden no haber recibido una amplia atención de los inversores, la importancia de los problemas de seguridad ha crecido notablemente con el rápido desarrollo de la tecnología de IA. Proyectos como Mind Network merecen nuestra atención continua para ver si pueden convertirse en líderes en el campo de la seguridad.
A medida que la tecnología de IA se acerca cada vez más al nivel de inteligencia humana, necesitamos sistemas de defensa más avanzados. La tecnología FHE no solo puede resolver los problemas actuales, sino que también prepara el camino para una era de IA más poderosa en el futuro. En el camino hacia la AGI, FHE ya no es una opción, sino una condición necesaria para garantizar el desarrollo seguro de la IA.