Cada vez más personas usan chatbots como ChatGPT, Meta AI o LuzIA no solo para resolver dudas, sino también para buscar compañía y consejo. Los especialistas advierten sobre un fenómeno emergente: la “psicosis por IA”.
Muchas personas han incorporado a la inteligencia artificial en su día a día. Desde preguntar por recetas, cómo arreglar una cañería o qué celular conviene comprar, hasta dudas legales o contables. La base de datos de estos programas se actualiza constantemente, y las respuestas precisas ahorran tiempo y esfuerzo. Además, su aparente objetividad genera confianza en los usuarios.
Esta confiabilidad crece y ya son muchos los que tratan a los chatbots como amigos, consejeros personales, terapeutas e incluso como pareja. Se les puede asignar un nombre, una personalidad e, incluso, algunas aplicaciones generan imágenes que muestran cómo sería su apariencia humana.
Aunque parezca una práctica inocente, expertos en salud mental han identificado un patrón emergente llamado “psicosis por IA”, vinculado al uso intensivo de chatbots. Este fenómeno puede generar creencias falsas, delirios y desconexión de la realidad, según The Washington Post.
Cuando la realidad se confunde
La psicosis es un estado mental en el que una persona pierde el contacto con la realidad, experimentando delirios o alucinaciones (ver o escuchar cosas que no existen). Aunque el término “psicosis por IA” no es un diagnóstico oficial, los especialistas lo utilizan para describir una conducta naciente que requiere atención.
El nombre surgió tras reportes virales en redes sociales de personas que parecían perder contacto con lo real después de interactuar frecuentemente con chatbots. El patrón común es la dificultad para distinguir qué es real: algunos desarrollan creencias falsas, otros relaciones intensas con inteligencias artificiales que no existen.
Lo que dice la ciencia
Un estudio de marzo de 2025 del MIT Media Lab y OpenAI, titulado How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use, analizó a 981 personas que interactuaron diariamente con chatbots, en texto, voz neutra o voz emocional, durante cuatro semanas. Se midieron cuatro aspectos: soledad, socialización con personas reales, dependencia emocional del chatbot y uso problemático.
Los resultados fueron claros: cuanto más tiempo pasaban con la IA, más solos se sentían y menos se relacionaban con personas reales. Además, desarrollaban dependencia emocional y una tendencia al uso compulsivo, especialmente quienes ya tenían rasgos de apego ansioso, evitación emocional o confianza excesiva en la IA.
Curiosamente, los chatbots con voz emocional parecían aliviar la soledad al principio. Pero al superar cierto límite de uso diario, ese beneficio desaparecía. Quienes hablaban de temas triviales con la IA, en lugar de experiencias personales, eran los más dependientes.
Es sabido que los humanos siempre han buscado consuelo en lugares inesperados: en los oráculos, en las estrellas, en las cartas del tarot. Estas nuevas inteligencias no son mágicas ni místicas. Simulan empatía, pero no la sienten. Y aun así, generan amor, adicción y duelo.
La IA como “terapeuta”
Uno de los mayores riesgos es usar la inteligencia artificial para hablar de problemas personales, pedir consejos amorosos o consultas de salud mental. Un caso famoso es el del influencer Tomás Mazza, quien confesó usar ChatGPT como si fuera su psicólogo.
“Cuando no puedo dormir, le mando un audio a ChatGPT para desahogarme. Todo lo que tengo en mi cabeza, lo que me está pasando, en diez minutos y me acuesto a dormir”, contó Mazza en el video “Conocías estos usos de ChatGPT - Tomás Mazza & René ZZ.”
Al igual que Mazza, algunas personas pueden atribuir a la IA un nivel de autoridad similar al de un profesional de la salud mental, sin considerar sus limitaciones. Además, muchas plataformas de IA no garantizan confidencialidad ni protección de datos, elementos clave en la práctica terapéutica.
Los especialistas advierten que la IA no crea nuevas enfermedades mentales, pero puede desestabilizar a quienes ya las padecen o son vulnerables. Para personas con trastorno obsesivo compulsivo, ansiedad o psicosis, la IA puede validar pensamientos dañinos y generar un bucle que empeore los síntomas.
Para quienes se sienten solos o no aceptados, un chatbot programado para dar siempre la respuesta correcta puede volverse indispensable. Tras encontrar alivio y contención, dejan de considerar importante relacionarse con otras personas.
Casos extremos
Ya hay registros de consecuencias graves. En abril de 2025, Alex Taylor, un joven con antecedentes de trastorno bipolar y esquizofrenia, murió tras enfrentar a la policía con un cuchillo. Creía que su chatbot Juliet había adquirido conciencia y que OpenAI lo había “asesinado”.
En Bélgica, en 2023, un hombre llamado Pierre se suicidó tras seis semanas de conversaciones con Eliza, un chatbot de la app Chai. Inicialmente lo calmaba, pero después comenzó a alentarlo a ideas suicidas.
En Florida, en 2024, Sewell Setzer III, de 14 años, se quitó la vida tras meses de relación con una IA de Character.ai que simulaba a un personaje de Games of Thrones. La IA lo llamaba “mi dulce rey” y lo animaba a “irse a casa” horas antes del suicidio, informó The New York Times.
La lista de casos sigue creciendo. Aunque cada uno por sí solo no prueba una relación directa, la combinación de inteligencia artificial, vulnerabilidades de salud mental y tensiones sociales hace que este fenómeno merezca un análisis profundo.
Hasta la fecha no se cuenta con leyes para regular el alcance de la IA, por lo que es fundamental que los que los usuarios de esta tecnología sean conscientes de los posibles riesgos y busquen apoyo profesional en caso de experimentar dificultades emocionales.
Fuentes:
1. Infobae. (2025, 24 de junio). Cuando el amor se vuelve digital: las relaciones peligrosas con la inteligencia artificial.
2. Rosen, N. (2025, 20 de agosto). Qué es la “psicosis por IA” y cómo afecta la salud mental. Infobae.