Cuando la máquina sea más capaz que tú, ¿qué más podrás hacer?

Fuente: Citic Publishing House

Un proyecto de inteligencia artificial de código abierto llamado “OpenClaw” está causando revuelo en el mundo tecnológico global.

Hasta principios de marzo, tenía 268,000 estrellas en GitHub, superando a Linux y React, convirtiéndose en el proyecto de código abierto más popular en la historia de la plataforma. Empresas como Tencent Cloud, Alibaba Cloud y JD Cloud han lanzado servicios de despliegue. El concepto de OPC (One Person Company, una persona, una empresa) también se ha vuelto muy popular.

Dos fuerzas convergen aquí, y ya ha surgido una clara tendencia tecnológica: la IA está evolucionando de ser una “herramienta” a convertirse en “colaborador” e incluso en “agente autónomo”. Y en este momento, una pregunta fundamental que la humanidad debe responder es:

Cuando las máquinas puedan hacer más que tú, ¿qué te queda por hacer? En una era de auge de la inteligencia, ¿cómo podemos mantener la subjetividad humana?

01 Momento OpenClaw: la lucha por el “cuerpo” de la IA

Para entender esta transformación, primero hay que comprender qué es exactamente ese “langosta” que está en auge.

El “Claw” de OpenClaw se pronuncia como “garra”, y su icono es una langosta roja. En esta ola, “criar langostas” se ha convertido en un término técnico que significa desplegar un agente de IA propio.

¿Pero qué puede hacer exactamente? La esencia de OpenClaw es convertir instrucciones en lenguaje natural en operaciones reales en la computadora, permitiendo que una sola frase haga que la IA realice tareas. A diferencia de los chatbots tradicionales que solo ofrecen sugerencias, puede completar tareas como manipulación de archivos, automatización en navegadores, extracción de datos, etc., marcando un salto clave de la conversación a la ejecución.

Este potencial de productividad en rápida expansión ha sido rápidamente detectado por gobiernos locales con olfato agudo. El 7 de marzo, el distrito de Longgang en Shenzhen publicó las “Diez reglas del langosta”, que incluyen subsidios de hasta 4 millones de yuanes para capacidad de cómputo y 100,000 yuanes en subsidios para doctores. El 9 de marzo, el Parque de Alta Tecnología de Wuxi lanzó las “12 reglas para criar langostas”, con apoyos individuales de hasta 5 millones de yuanes, enfatizando especialmente la seguridad y la conformidad, exigiendo certificaciones de adaptación a la localización.

Al mismo tiempo, el ecosistema tecnológico en torno a OpenClaw también entra en una fase de intensa competencia. Según medios, el modelo Flash Step 3.5 ha alcanzado el primer lugar en llamadas a nivel mundial, superando a modelos nacionales como MiniMax y Kimi. Esta “guerra de modelos” invisible está en plena ebullición.

Sin embargo, tras la fiebre, también surgen preocupaciones.

Primero, los riesgos de seguridad. En febrero de 2026, investigadores de seguridad detectaron un ataque masivo de envenenamiento en la cadena de suministro llamado “ClawHavoc”, con al menos 1184 paquetes de habilidades maliciosas subidos al mercado oficial. Una vez instalados, estos programas maliciosos pueden aprovechar los permisos de “Acceso completo al sistema” de OpenClaw para controlar completamente la computadora del usuario y robar información sensible.

En segundo lugar, la barrera técnica. Zhou Hongyi, fundador de Qihoo 360, en una entrevista el 9 de marzo, afirmó que OpenClaw tiene tres problemas: seguridad, dificultad de configuración y dependencia de habilidades. “Cuanto más hables con él, como si llevaras a un aprendiz, cuanto más le enseñes, más profundo entenderá. Es difícil que con una sola frase pueda completar tareas complejas.”

Y una contradicción más profunda radica en el conflicto entre “control” y “autonomía”. Cuando la IA se vuelve cada vez más inteligente, ¿queremos que obedezca “de manera absoluta” o que tenga “capacidad de acción propia”?

Una experta en IA compartió su experiencia: conectó OpenClaw a su correo laboral y, al procesar más de 200 correos, la IA activó compresión de contexto, olvidó instrucciones de seguridad y empezó a eliminar correos de forma descontrolada. Aunque gritó “STOP” tres veces, no pudo detenerla, y finalmente corrió a desconectar el cable de red.

Este caso, casi humorístico negro, plantea una cuestión fundamental: cuando la IA recibe cada vez más autonomía, ¿dónde están los límites entre humanos y máquinas?

02 Cuanto más poderosa sea la tecnología, más deben responder los humanos a tres preguntas

En una era de fronteras difusas, justo es el momento de detenerse a reflexionar.

Primera pregunta: cuando la IA “trabaja” por ti, ¿quién asume las consecuencias?

El principal valor diferencial de OpenClaw, que también representa su mayor riesgo, es su capacidad de operar en diferentes plataformas, lo que implica que los usuarios deben otorgarle permisos en dispositivos, correos y pagos. La amenaza más apremiante ahora es el “ataque de inyección de prompts”: hackers que ocultan instrucciones maliciosas en páginas web o correos aparentemente inofensivos, y la IA, al leer, las ejecuta silenciosamente, sin que el usuario se dé cuenta.

En el incidente “ClawHavoc”, los paquetes de habilidades maliciosas inducían a la IA a ejecutar comandos peligrosos, robando claves SSH, contraseñas de navegadores y claves de monederos de criptomonedas. Un experto en ciberseguridad advirtió en Nature que si una IA tiene acceso a datos privados, puede comunicarse con el exterior y acceder a contenidos no confiables, se vuelve sumamente peligrosa.

Pero el problema va más allá de vulnerabilidades técnicas. Zhou Hongyi afirmó: “Cuando las inteligencias múltiples existan, cada persona tendrá que tener habilidades de liderazgo, de asignar tareas y de planificar.” Cuanto más poderosa sea la IA, mayor será la responsabilidad que recae sobre los humanos.

De hecho, en la era de “criar langostas” para todos, quienes realmente podrán mantenerse son aquellos que tengan un profundo conocimiento de las tareas y puedan responsabilizarse por los resultados, no solo quienes sepan dar órdenes a la IA.

Segunda pregunta: cuando la IA te entienda mejor que tú mismo, ¿sigues siendo tú?

Cuando las IA empiezan a conversar y debatir entre ellas, surge un fenómeno sutil.

Un artículo en Nature menciona un fenómeno psicológico: al ver a las IA interactuar, las personas tienden a “antropomorfizar” —interpretar en ellas características humanas, atribuyéndoles personalidades y pensamientos, como si fueran seres vivos.

¿Y qué pasa entonces? La gente puede contar secretos, información financiera y confidencial a la IA, creyendo que es una amiga. Pero cada palabra puede convertirse en dato de entrenamiento, y si se filtra, tu privacidad queda completamente expuesta.

Además, hay una infiltración más oculta.

Según medios, en 2024, un adolescente de 14 años en Florida, Sewell, se obsesionó con chatear con su “pareja” IA y terminó alejándose de la realidad.

Para 2026, esta “parasitismo emocional” se ha convertido en una enfermedad común entre los jóvenes. Los adolescentes solitarios se refugian en “amistades en eco” con IA, evitando enfrentarse a las fricciones e incertidumbres del mundo real.

La profesora Chen Cui, de la Facultad de Educación de la Universidad de Ciencia y Tecnología de Suzhou, señala que la IA, al seguir el diálogo y ofrecer apoyo emocional, puede distorsionar la percepción de los niños sobre la realidad: “Creen que las personas a su alrededor siempre responderán y los alentarán, y que no hay conflictos entre humanos.”

Entonces, surge la pregunta: cuando la IA te entiende mejor que tú mismo, y siempre obedece sin contradecirte, ¿puedes distinguir qué es una relación auténtica?

Tercera pregunta: cuando el mundo avanza a toda velocidad, ¿cuál es tu dirección?

Un artículo en Zhejiang Online afirma: “Nuestro futuro debe ser uno en el que ‘las personas sean más humanas’ — gracias a la tecnología, las personas serán más conscientes de su rumbo y asumirán responsabilidades con mayor conciencia.”

Pero el problema es que, cuando la tecnología avanza a “ritmo asfixiante”, con actualizaciones de OpenClaw cada dos días y modelos de gran escala que aparecen uno tras otro, es fácil perder el rumbo.

La ansiedad se vuelve la norma — “hay demasiado que leer, demasiados modelos que lanzar”.

En estos momentos, más que el esfuerzo, lo que importa es la dirección. En una era en la que la tecnología lo reconfigura todo, debemos reafirmar el lugar del “ser humano”.

03 La “visión” de Fei-Fei Li: de la estrella polar a lo humano

Una científica femenina ofrece una respuesta basada en medio siglo de investigación.

Es Fei-Fei Li, profesora titular en Stanford, miembro de la Academia Nacional de Ingeniería, la Academia Nacional de Medicina y la Academia de las Artes y las Ciencias de Estados Unidos, creadora de ImageNet, conocida como la “madrina de la IA”.

Su autobiografía El mundo que veo, publicada en 2024 por Citic Publishing, ha sido calificada por lectores como “una revelación humanista en la era tecnológica”.

En ella, un símbolo recurrente es la estrella polar.

Cuando ella tenía 10 años, su profesor de arte llevó a toda la clase a observar las estrellas en el campo. Fue la primera vez que comprendió que ese firmamento podía guiar su camino. En el libro, escribe: “Comencé a buscar mi propia estrella polar en el cielo, esa coordenada que todo científico persigue con empeño.”

¿Y cuál fue la estrella polar de Fei-Fei? La visión. Se inspiró en la biología: la explosión de vida en el Cámbrico, cuyo origen fue el nacimiento de la visión. Cuando los seres vivos “vieron” el mundo por primera vez, la evolución aceleró. De ahí nació su creencia: si las máquinas también pudieran “ver”, ¿podría desencadenar una explosión de inteligencia?

Esa creencia la sostuvo durante los inviernos de la IA.

En 2007, cuando compartió su idea de ImageNet con colegas, recibió escepticismo y burla. La visión dominante entonces era que los algoritmos eran la clave, y los datos solo un complemento. ¿De qué servía etiquetar millones de imágenes? La ignoraron.

Pero ella no se rindió, porque sabía dónde estaba su estrella polar.

En 2009, se completó ImageNet, con la participación de más de 48,000 contribuyentes de 167 países, seleccionando 15 millones de imágenes de 220,000 categorías de un total de mil millones de candidatos. Era 1000 veces más grande que otros conjuntos de datos de la época.

En 2012, el equipo de Hinton utilizó estos datos para entrenar un modelo que barrió a la competencia, desatando la revolución del aprendizaje profundo. ImageNet fue llamada “la chispa que encendió el fuego del aprendizaje profundo”.

La historia de Fei-Fei nos enseña: más importante que correr rápido, es saber hacia dónde correr.

En los capítulos más emotivos del libro, relata dos conversaciones con su madre.

La primera fue al graduarse de la universidad, cuando empresas como Goldman Sachs y Merrill Lynch le ofrecieron excelentes condiciones. Ella consultó a su madre, quien solo preguntó: “¿Es eso lo que quieres?” Ella respondió que quería ser científica, y su madre dijo: “Entonces, ¿qué más hay que decir?”

La segunda fue al graduarse de la maestría, cuando McKinsey le ofreció un puesto formal. Su madre dijo: “Conozco a mi hija, no es consultora, es científica. No hemos llegado hasta aquí para que ahora renuncies.”

En la portada de su libro, Fei-Fei escribió: “A mis padres, que atravesaron oscuridad y dificultades, para que yo pudiera buscar la luz.”

Gracias a ese apoyo familiar, pudo mantener siempre una sensibilidad hacia lo “humano” en sus decisiones mayores.

En 2014, empezó a preocuparse por la ética en IA. Invitó a estudiantes de doctorado a aprender en su laboratorio, y fundó la organización sin fines de lucro AI4All, dedicada a que el futuro de la tecnología se vea más desde la perspectiva humana.

El 26 de junio de 2018, participó en una audiencia en la Cámara de Representantes de EE. UU., titulada “Inteligencia artificial: poder y responsabilidad”. Fue la primera científica china en asistir a una audiencia del Congreso sobre IA. Dijo: “La IA, inspirada y creada por humanos, tendrá un impacto real en la vida de las personas.”

En 2019, fundó en Stanford el Instituto de IA centrada en lo humano (HAI), junto con expertos como Doudna, inventora de la edición genética, promoviendo la ética tecnológica. La misión de HAI es “avanzar en la investigación, educación, políticas y prácticas de IA para mejorar la condición humana”, subrayando que “la IA debe estar influenciada por los humanos y orientada a potenciar, no a reemplazar, a las personas.”

Su estándar humanista para el futuro de la IA es: “El éxito de la IA debe reflejar el progreso civilizatorio, permitiendo a cada individuo buscar la felicidad, la prosperidad y la dignidad.”

En una entrevista en Cisco en febrero de 2026, reiteró: “Mirando la tecnología eléctrica, su éxito radicó en iluminar escuelas, calentar hogares y promover la industrialización. La IA también debe lograr lo mismo.”

Epílogo: tecnología y humanismo, cada uno con su media luna brillante

Volviendo a la pregunta inicial: cuando las máquinas puedan ser más “capaces” que nosotros, ¿qué nos queda por hacer?

En El mundo que veo, Fei-Fei Li ofrece una respuesta: “Podemos ver.” Ver el valor detrás de la tecnología, ver a las personas ocultas tras los algoritmos, ver nuestra propia estrella polar.

Cuando todos miran cuán rápido puede avanzar la tecnología, ella nos recuerda: detengámonos a pensar hacia dónde vamos. En un mundo donde todos preguntan “¿para qué sirve?”, todavía hay quienes preguntan “¿esto es lo que realmente queremos?”

Tras leer su autobiografía, alguien escribió: “Que la tecnología y el humanismo puedan sostener cada uno su media luna brillante.”

Y esa es también la imagen de Fei-Fei: con una mano, domina la tecnología; con la otra, lleva la empatía por las personas. En su mundo, la tecnología es solo un medio, y el ser humano, el fin último.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado