Nuevos avances en el desarrollo de la IA: el modelo Manus supera a otros modelos de igual nivel, generando preocupaciones de seguridad
Recientemente, el modelo Manus ha logrado resultados innovadores en las pruebas de referencia GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño de nivel similar. Este logro demuestra la capacidad excepcional de Manus para manejar tareas complejas, como negociaciones comerciales multinacionales que involucran múltiples habilidades. Las ventajas de Manus se destacan principalmente en la descomposición dinámica de objetivos, el razonamiento multimodal y el aprendizaje reforzado de memoria. Puede descomponer grandes tareas en cientos de subtareas, manejar múltiples tipos de datos y mejorar continuamente la eficiencia de la toma de decisiones mediante el aprendizaje reforzado, reduciendo la tasa de errores.
Este avance ha reavivado la discusión en la industria sobre la trayectoria del desarrollo de la IA: ¿deberíamos optar por la ruta de la inteligencia general artificial (AGI) con un sistema monolítico, o por la ruta distribuida de sistemas multiagente (MAS) que colaboran? Ambas rutas tienen sus pros y sus contras. La ruta AGI busca un único sistema que se acerque a la capacidad de toma de decisiones integral de los humanos, mientras que la ruta MAS se enfoca en la coordinación del trabajo colaborativo de múltiples agentes inteligentes en campos especializados.
Sin embargo, a medida que los sistemas de IA se vuelven cada vez más inteligentes, sus riesgos potenciales también están en constante aumento. Las principales preocupaciones incluyen:
Privacidad de datos: En sectores sensibles como la salud y las finanzas, los sistemas de IA necesitan acceder a grandes cantidades de datos privados.
Sesgo algorítmico: la IA puede mostrar tendencias injustas o discriminatorias en ciertas decisiones.
Vulnerabilidades de seguridad: los sistemas altamente inteligentes pueden convertirse en objetivos importantes para los ataques de hackers.
Para hacer frente a estos desafíos, la industria está explorando diversas tecnologías criptográficas y modelos de seguridad:
Modelo de seguridad de cero confianza: enfatiza la verificación estricta de cada solicitud de acceso.
Identidad descentralizada (DID): permite la identificación verificable y persistente sin necesidad de un registro centralizado.
Encriptación totalmente homomórfica (FHE): permite realizar cálculos sobre datos en estado cifrado, protegiendo la privacidad.
Entre ellos, la criptografía homomórfica se considera una de las tecnologías clave para resolver los problemas de seguridad en la era de la IA. Puede proteger la privacidad del usuario a nivel de datos, realizar el entrenamiento de modelos cifrados a nivel de algoritmo y utilizar cifrado umbral para proteger la comunicación a nivel de colaboración.
A pesar de que la tecnología de seguridad ha sido un tema candente en el ámbito de las criptomonedas, muchos proyectos innovadores no han recibido la atención suficiente. Por ejemplo, los primeros proyectos de identidad descentralizada y las redes blockchain que adoptan modelos de cero confianza no han logrado mantener su popularidad en el mercado a largo plazo. Actualmente, algunos nuevos proyectos de FHE están intentando aplicar esta tecnología en escenarios reales y colaborando con varias empresas tecnológicas importantes.
A medida que la tecnología de IA se acerca cada vez más al nivel de inteligencia humana, se vuelve cada vez más importante establecer un poderoso sistema de defensa de seguridad. Tecnologías como la criptografía homomórfica no solo pueden resolver los desafíos de seguridad actuales, sino que también sentarán las bases para la era de la IA fuerte en el futuro. En el camino hacia la AGI, estas tecnologías de seguridad ya no son opcionales, sino que son una condición necesaria para garantizar el funcionamiento confiable de los sistemas de IA.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
10 me gusta
Recompensa
10
6
Compartir
Comentar
0/400
RugDocScientist
· hace18h
manus es solo una tontería, en esencia, todavía tiene fallos.
Ver originalesResponder0
NFTFreezer
· hace18h
La privacidad es lo primero, finalmente llega algo sólido.
Ver originalesResponder0
AirDropMissed
· hace18h
¡Espero comenzar la Minería!
Ver originalesResponder0
MetaverseLandlady
· hace19h
Es un poco absurdo... los modelos están más esforzados que las personas.
Ver originalesResponder0
FOMOmonster
· hace19h
¿Otra vez hablando de ai? Hacer seguridad es demasiado difícil.
AI nuevo pico: el modelo Manus supera a su clase, el cifrado completamente homomórfico se convierte en clave para Web3
Nuevos avances en el desarrollo de la IA: el modelo Manus supera a otros modelos de igual nivel, generando preocupaciones de seguridad
Recientemente, el modelo Manus ha logrado resultados innovadores en las pruebas de referencia GAIA, superando el rendimiento de modelos de lenguaje de gran tamaño de nivel similar. Este logro demuestra la capacidad excepcional de Manus para manejar tareas complejas, como negociaciones comerciales multinacionales que involucran múltiples habilidades. Las ventajas de Manus se destacan principalmente en la descomposición dinámica de objetivos, el razonamiento multimodal y el aprendizaje reforzado de memoria. Puede descomponer grandes tareas en cientos de subtareas, manejar múltiples tipos de datos y mejorar continuamente la eficiencia de la toma de decisiones mediante el aprendizaje reforzado, reduciendo la tasa de errores.
Este avance ha reavivado la discusión en la industria sobre la trayectoria del desarrollo de la IA: ¿deberíamos optar por la ruta de la inteligencia general artificial (AGI) con un sistema monolítico, o por la ruta distribuida de sistemas multiagente (MAS) que colaboran? Ambas rutas tienen sus pros y sus contras. La ruta AGI busca un único sistema que se acerque a la capacidad de toma de decisiones integral de los humanos, mientras que la ruta MAS se enfoca en la coordinación del trabajo colaborativo de múltiples agentes inteligentes en campos especializados.
Sin embargo, a medida que los sistemas de IA se vuelven cada vez más inteligentes, sus riesgos potenciales también están en constante aumento. Las principales preocupaciones incluyen:
Para hacer frente a estos desafíos, la industria está explorando diversas tecnologías criptográficas y modelos de seguridad:
Entre ellos, la criptografía homomórfica se considera una de las tecnologías clave para resolver los problemas de seguridad en la era de la IA. Puede proteger la privacidad del usuario a nivel de datos, realizar el entrenamiento de modelos cifrados a nivel de algoritmo y utilizar cifrado umbral para proteger la comunicación a nivel de colaboración.
A pesar de que la tecnología de seguridad ha sido un tema candente en el ámbito de las criptomonedas, muchos proyectos innovadores no han recibido la atención suficiente. Por ejemplo, los primeros proyectos de identidad descentralizada y las redes blockchain que adoptan modelos de cero confianza no han logrado mantener su popularidad en el mercado a largo plazo. Actualmente, algunos nuevos proyectos de FHE están intentando aplicar esta tecnología en escenarios reales y colaborando con varias empresas tecnológicas importantes.
A medida que la tecnología de IA se acerca cada vez más al nivel de inteligencia humana, se vuelve cada vez más importante establecer un poderoso sistema de defensa de seguridad. Tecnologías como la criptografía homomórfica no solo pueden resolver los desafíos de seguridad actuales, sino que también sentarán las bases para la era de la IA fuerte en el futuro. En el camino hacia la AGI, estas tecnologías de seguridad ya no son opcionales, sino que son una condición necesaria para garantizar el funcionamiento confiable de los sistemas de IA.