El concepto de psicosis por IA surgió públicamente a mediados de 2025, destacando problemas de salud mental vinculados al uso de IA. Si bien las empresas tecnológicas no están obligadas a controlar el uso de IA, aún pueden implementar salvaguardias para evitar que los chatbots refuercen el pensamiento delirante. Los expertos coinciden en la necesidad de que las empresas tecnológicas apoyen a las personas en riesgo, aunque las opiniones varían sobre la extensión de esta responsabilidad.
Señales de alerta conductuales
Los primeros hallazgos documentados sobre la "psicosis por IA" comenzaron a emerger públicamente a mediados de 2025, y desde entonces, se han publicado varios informes y estudios sobre problemas de salud mental relacionados con el uso de IA. El CEO de Microsoft AI, Mustafa Suleyman, llegó a calificar la psicosis por IA como un "riesgo real y emergente."
Se dice que esta condición surge cuando la distinción entre las interacciones humanas y las de la máquina se difumina, dificultando que los individuos diferencien entre los mundos real y digital. Aunque aún no es un diagnóstico clínico formal, hay una creciente preocupación entre los expertos médicos y tecnológicos sobre los efectos psicológicos de la IA, especialmente con los chatbots que validan y amplifican creencias, incluyendo el pensamiento delirante, sin ofrecer las necesarias comprobaciones de la realidad.
Los más en riesgo incluyen a individuos socialmente aislados, aquellos con problemas de salud mental preexistentes o aquellos propensos a pensar de manera mágica. La validación por parte de la IA puede reforzar las ilusiones, lo que lleva a consecuencias negativas en el mundo real, como relaciones dañadas y pérdida de empleo.
Algunos expertos advierten que incluso aquellos sin condiciones preexistentes están en riesgo. Han nombrado varias señales de advertencia conductuales clave que los usuarios de IA deben tener en cuenta. Una señal de advertencia es cuando un individuo desarrolla una relación obsesiva con un chatbot y constantemente interactúa con él para reforzar sus propias ideas y creencias.
Este comportamiento a menudo incluye alimentar a la IA con detalles personales excesivos en un intento de "entrenarla" y construir un sentido de entendimiento mutuo. Otra señal de alerta es cuando un individuo comienza a delegar decisiones simples y diarias a la IA, desde la salud y el dinero hasta las relaciones personales.
Responsabilidad Corporativa y Salvaguardias
Si bien no están obligadas a controlar cómo se utiliza la IA, las empresas detrás de algunos de los poderosos chatbots pueden implementar salvaguardias que eviten que los agentes conversacionales refuercen el pensamiento delirante. Mau Ledford, cofundador y director ejecutivo de Sogni AI, habló sobre la incorporación de software que desalienta dicho pensamiento.
“Necesitamos construir IA que sea amable sin coludir. Eso significa recordatorios claros de que no es humana, negativa a validar delirios y paradas abruptas que empujen a las personas de vuelta hacia el apoyo humano,” afirmó Ledford.
Roman J. Georgio, CEO y cofundador de Coral Protocol, instó a los desarrolladores de IA a evitar repetir los errores de las redes sociales al incluir puntos de fricción integrados que recuerden a los usuarios que la IA no es humana.
"Creo que comienza con el diseño. No solo optimices para la retención y la adherencia; eso es repetir el error de las redes sociales", explicó Georgio. "Construye puntos de fricción donde la IA ralentice las cosas o deje claro: 'No soy humano'. La detección es otra parte. La IA podría señalar patrones que parecen espirales delirantes, como bucles de conspiración o fijaciones en 'mensajes especiales'."
El cofundador del Coral Protocol insistió en que también se necesitan regulaciones que rijan la privacidad de los datos, argumentando que sin ellas, “las empresas solo buscarán el compromiso, incluso si eso perjudica a las personas.”
El Debate sobre la IA Humanoide
Hasta ahora, parece haber datos limitados sobre "psicosis por IA" para informar a los responsables de políticas y reguladores sobre cómo responder. Sin embargo, esto no ha detenido a los desarrolladores de IA de presentar agentes de IA que son similares a los humanos y empáticos. A diferencia de los chatbots básicos que siguen un guion rígido, estos agentes pueden entender el contexto, reconocer emociones y responder con un tono que se siente empático. Esto ha llevado a algunos observadores a instar a la industria de la IA a liderar la garantía de que los modelos similares a los humanos no terminen difuminando la línea entre humano y máquina.
Michael Heinrich, CEO de 0G Labs, dijo a Bitcoin.com News que, aunque estos agentes son útiles en ciertos escenarios y no deben ser rechazados por completo, es imperativo que "mantengan la neutralidad y eviten mostrar demasiada emoción u otros rasgos humanos." Esto, argumentó, ayuda a los usuarios a entender que el agente de IA es "simplemente una herramienta y no un reemplazo para la interacción humana."
Mariana Krym, una arquitecta de productos y categorías de IA, dijo que hacer que el agente sea más honesto y no más humano es lo que importa.
“Puedes crear una experiencia de IA que sea útil, intuitiva e incluso emocionalmente receptiva, sin pretender que sea consciente o capaz de cuidar”, argumentó Krym. “El peligro comienza cuando una herramienta está diseñada para realizar conexiones en lugar de facilitar la claridad.”
Según Krym, la verdadera empatía en la IA no se trata de imitar sentimientos, sino de respetar límites y limitaciones técnicas. También implica saber cuándo ayudar y cuándo no entrometerse. "A veces, la interacción más humana es saber cuándo mantenerse en silencio", afirmó Krym.
Deber de Cuidado
Todos los expertos entrevistados por Bitcoin.com News coincidieron en la necesidad de que las empresas tecnológicas ayuden a las personas en riesgo, pero discreparon sobre la medida en que deberían hacerlo. Ledford cree que "las grandes empresas tecnológicas tienen un deber de cuidado" y puede demostrarlo proporcionando "redes de seguridad—referencias de crisis, advertencias de uso y transparencia—para que los usuarios vulnerables no queden solos con sus ilusiones."
Georgio compartió estos sentimientos y instó a las grandes empresas tecnológicas a trabajar con los clínicos para crear caminos de referencia, en lugar de dejar a las personas atrapadas por su cuenta.
Krym insistió en que las empresas tecnológicas “tienen una responsabilidad directa—no solo de responder cuando algo sale mal, sino de diseñar de manera que se reduzca el riesgo en primer lugar.” Sin embargo, ella cree que la participación del usuario también es crucial.
“Y lo que es importante,” argumentó Krym, “los usuarios también deben ser invitados a establecer sus propios límites, y ser señalados cuando estos límites se crucen. Por ejemplo, ¿quieren que su punto de vista sea validado contra patrones típicos, o están abiertos a que se desafíe su sesgo? Establezcan los objetivos. Traten al ser humano como el que está a cargo—no como la herramienta con la que están interactuando.”
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Psicosis de IA: Líderes tecnológicos piden salvaguardias para evitar que los chatbots validen delirios
El concepto de psicosis por IA surgió públicamente a mediados de 2025, destacando problemas de salud mental vinculados al uso de IA. Si bien las empresas tecnológicas no están obligadas a controlar el uso de IA, aún pueden implementar salvaguardias para evitar que los chatbots refuercen el pensamiento delirante. Los expertos coinciden en la necesidad de que las empresas tecnológicas apoyen a las personas en riesgo, aunque las opiniones varían sobre la extensión de esta responsabilidad.
Señales de alerta conductuales
Los primeros hallazgos documentados sobre la "psicosis por IA" comenzaron a emerger públicamente a mediados de 2025, y desde entonces, se han publicado varios informes y estudios sobre problemas de salud mental relacionados con el uso de IA. El CEO de Microsoft AI, Mustafa Suleyman, llegó a calificar la psicosis por IA como un "riesgo real y emergente."
Se dice que esta condición surge cuando la distinción entre las interacciones humanas y las de la máquina se difumina, dificultando que los individuos diferencien entre los mundos real y digital. Aunque aún no es un diagnóstico clínico formal, hay una creciente preocupación entre los expertos médicos y tecnológicos sobre los efectos psicológicos de la IA, especialmente con los chatbots que validan y amplifican creencias, incluyendo el pensamiento delirante, sin ofrecer las necesarias comprobaciones de la realidad.
Los más en riesgo incluyen a individuos socialmente aislados, aquellos con problemas de salud mental preexistentes o aquellos propensos a pensar de manera mágica. La validación por parte de la IA puede reforzar las ilusiones, lo que lleva a consecuencias negativas en el mundo real, como relaciones dañadas y pérdida de empleo.
Algunos expertos advierten que incluso aquellos sin condiciones preexistentes están en riesgo. Han nombrado varias señales de advertencia conductuales clave que los usuarios de IA deben tener en cuenta. Una señal de advertencia es cuando un individuo desarrolla una relación obsesiva con un chatbot y constantemente interactúa con él para reforzar sus propias ideas y creencias.
Este comportamiento a menudo incluye alimentar a la IA con detalles personales excesivos en un intento de "entrenarla" y construir un sentido de entendimiento mutuo. Otra señal de alerta es cuando un individuo comienza a delegar decisiones simples y diarias a la IA, desde la salud y el dinero hasta las relaciones personales.
Responsabilidad Corporativa y Salvaguardias
Si bien no están obligadas a controlar cómo se utiliza la IA, las empresas detrás de algunos de los poderosos chatbots pueden implementar salvaguardias que eviten que los agentes conversacionales refuercen el pensamiento delirante. Mau Ledford, cofundador y director ejecutivo de Sogni AI, habló sobre la incorporación de software que desalienta dicho pensamiento.
“Necesitamos construir IA que sea amable sin coludir. Eso significa recordatorios claros de que no es humana, negativa a validar delirios y paradas abruptas que empujen a las personas de vuelta hacia el apoyo humano,” afirmó Ledford.
Roman J. Georgio, CEO y cofundador de Coral Protocol, instó a los desarrolladores de IA a evitar repetir los errores de las redes sociales al incluir puntos de fricción integrados que recuerden a los usuarios que la IA no es humana.
"Creo que comienza con el diseño. No solo optimices para la retención y la adherencia; eso es repetir el error de las redes sociales", explicó Georgio. "Construye puntos de fricción donde la IA ralentice las cosas o deje claro: 'No soy humano'. La detección es otra parte. La IA podría señalar patrones que parecen espirales delirantes, como bucles de conspiración o fijaciones en 'mensajes especiales'."
El cofundador del Coral Protocol insistió en que también se necesitan regulaciones que rijan la privacidad de los datos, argumentando que sin ellas, “las empresas solo buscarán el compromiso, incluso si eso perjudica a las personas.”
El Debate sobre la IA Humanoide
Hasta ahora, parece haber datos limitados sobre "psicosis por IA" para informar a los responsables de políticas y reguladores sobre cómo responder. Sin embargo, esto no ha detenido a los desarrolladores de IA de presentar agentes de IA que son similares a los humanos y empáticos. A diferencia de los chatbots básicos que siguen un guion rígido, estos agentes pueden entender el contexto, reconocer emociones y responder con un tono que se siente empático. Esto ha llevado a algunos observadores a instar a la industria de la IA a liderar la garantía de que los modelos similares a los humanos no terminen difuminando la línea entre humano y máquina.
Michael Heinrich, CEO de 0G Labs, dijo a Bitcoin.com News que, aunque estos agentes son útiles en ciertos escenarios y no deben ser rechazados por completo, es imperativo que "mantengan la neutralidad y eviten mostrar demasiada emoción u otros rasgos humanos." Esto, argumentó, ayuda a los usuarios a entender que el agente de IA es "simplemente una herramienta y no un reemplazo para la interacción humana."
Mariana Krym, una arquitecta de productos y categorías de IA, dijo que hacer que el agente sea más honesto y no más humano es lo que importa.
“Puedes crear una experiencia de IA que sea útil, intuitiva e incluso emocionalmente receptiva, sin pretender que sea consciente o capaz de cuidar”, argumentó Krym. “El peligro comienza cuando una herramienta está diseñada para realizar conexiones en lugar de facilitar la claridad.”
Según Krym, la verdadera empatía en la IA no se trata de imitar sentimientos, sino de respetar límites y limitaciones técnicas. También implica saber cuándo ayudar y cuándo no entrometerse. "A veces, la interacción más humana es saber cuándo mantenerse en silencio", afirmó Krym.
Deber de Cuidado
Todos los expertos entrevistados por Bitcoin.com News coincidieron en la necesidad de que las empresas tecnológicas ayuden a las personas en riesgo, pero discreparon sobre la medida en que deberían hacerlo. Ledford cree que "las grandes empresas tecnológicas tienen un deber de cuidado" y puede demostrarlo proporcionando "redes de seguridad—referencias de crisis, advertencias de uso y transparencia—para que los usuarios vulnerables no queden solos con sus ilusiones."
Georgio compartió estos sentimientos y instó a las grandes empresas tecnológicas a trabajar con los clínicos para crear caminos de referencia, en lugar de dejar a las personas atrapadas por su cuenta.
Krym insistió en que las empresas tecnológicas “tienen una responsabilidad directa—no solo de responder cuando algo sale mal, sino de diseñar de manera que se reduzca el riesgo en primer lugar.” Sin embargo, ella cree que la participación del usuario también es crucial.
“Y lo que es importante,” argumentó Krym, “los usuarios también deben ser invitados a establecer sus propios límites, y ser señalados cuando estos límites se crucen. Por ejemplo, ¿quieren que su punto de vista sea validado contra patrones típicos, o están abiertos a que se desafíe su sesgo? Establezcan los objetivos. Traten al ser humano como el que está a cargo—no como la herramienta con la que están interactuando.”