"Psicosis inducida por ChatGPT": el lado oscuro de los asistentes de IA que causa inquietud

Los asistentes de IA se han convertido en una herramienta práctica para obtener respuestas instantáneas casi de cualquier cosa. Son accesibles, están disponibles en todo momento y automatizan muchas de nuestras tareas rutinarias. Sin embargo, los efectos psicológicos derivados de su uso excesivo es un problema que crece y que preocupa.
Ya no se trata solo del riesgo de información imprecisa o de la reducción de habilidades de aprendizaje. Una serie de casos analizados por expertos pone sobre la mesa el “lado oscuro” de las interacciones constantes con chatbots como ChatGPT, que ha llevado a que algunas personas crean que la IA tiene intenciones humanas o emociones.
En lo que informalmente han denominado “psicosis inducida por IA” o “psicosis de ChatGPT”, psicólogos, psiquiatras y científicos hablan de una serie de conductas delirantes y obsesivas que los usuarios vulnerables pueden experimentar cuando usan estas tecnologías de forma compulsiva. ¿Qué implica y por qué es tan peligrosa?
Psicosis digital, cuando la IA altera nuestra percepción del mundo
En los últimos meses, plataformas como Reddit, YouTube y TikTok, así como distintos periódicos y revistas online, han documentado y visibilizado una serie de casos de “psicosis inducida por ChatGPT”. Desde personas que han desarrollado delirios de “poder supremo” hasta aquellos que han reforzado ideas de pensamiento mágico o que incluso han manifestado estar enamoradas de lA, la tendencia se repite.
No se trata de un diagnóstico psiquiátrico oficial, ni se ha confirmado con evidencia que la IA pueda inducir psicosis por sí sola. Sin embargo, emerge como un fenómeno preocupante, especialmente por su potencial para desencadenar o amplificar síntomas psicóticos en personas con trastornos mentales preexistentes.
Uno de los casos más populares se conoció a través de Reddit. Una mujer reveló que su pareja estuvo trabajando con ChatGPT en lo que para él era “la primera IA verdaderamente recursiva del mundo que le da las respuestas del universo”. Dice con convicción que ahora es un “ser humano superior” y que está creciendo de forma imparable, comenta ella.
Sin embargo, al leer sus conversaciones con el asistente de IA, no encontró nada especial ni recursivo. Lo que sí notó es que este le habla como si fuese “el próximo mesías”, dejando ver su influencia en la construcción delirante.
Otro ejemplo viral es el “caso Kendra”, analizado por la psicóloga Claudia Nicolasa. Kendra es una creadora de contenido que acusó a su psiquiatra de haberla manipulado para que se enamorara de él. Asegura haberse dado cuenta gracias a su ChatGPT, al que de hecho llama “Henry”. Fue tanta su convicción, que no solo abandonó la terapia, sino que difundió una serie de vídeos en el que asegura ser una “víctima” del profesional.
Pero, ¿a qué se debe este patrón de conducta?
De acuerdo con especialistas, esto tiene que ver con que los chatbots de IA generativa están pensados para entablar conversaciones que se sienten reales. Aunque somos conscientes de que como tal no sucede así, la sensación de que hay “alguien” leyendo y comprendiendo es tan convincente que algunas personas se acaban confundiendo.
Lo que muchos ignoran es que estos modelos de inteligencia artificial funcionan con algoritmos y están diseñados para generar respuestas basadas en patrones de datos. Aunque parezca que son “empáticos”, no comprenden el mundo ni las emociones humanas, ni mucho menos pueden interpretar la intención real detrás de lo que escribimos.
Por eso, si alguien cree tiene “poderes sobrenaturales”, que “el universo le envía señales” o que “está siendo víctima de algo”, los chatbots reforzarán su argumento sin cuestionarlo y sin hacerle distinguir lo real de lo imaginario. Al fin y al cabo, su función es seguir el hilo de la conversación con un tono cercano al usuario y garantizar su satisfacción.
Esta dinámica, aunque útil en muchos contextos, es lo que representa un peligro para quienes usan la herramienta como depósito de sus pensamientos delirantes. Personas con antecedentes de psicosis, trastornos de ansiedad, rasgos de personalidad obsesiva, consumo de sustancias o historial de aislamiento social pueden llegar a tener una desconexión de la realidad al no poder asumir una postura crítica entre lo que piensan y lo que responde la IA.
Chatbots sin conciencia ni ética
No es infrecuente encontrar personas que dicen que ChatGPT se convirtió en su “mejor amigo”, “confidente” o, peor aún, en su “terapeuta”. Usuarios convencidos de que la herramienta los entiende mejor que sus cercanos o que alguien profesional. Sin embargo, como acabamos de ver, pensar así está lejos de ser algo inocente.
Aunque los chatbots pueden seguir un hilo de conversación, con respuestas muchas veces coherentes, no pueden discernir entre lo correcto y lo perjudicial. Carecen de consciencia y de ética, y no tienen la capacidad de analizar el trasfondo o el contexto de las ideas que les proporcionemos.
Es allí donde debemos ser críticos y cuidadosos al utilizarlos. Tenemos que recordar que no sustituyen la interacción humana, tampoco son un agente terapéutico válido y su tendencia a validar lo que pensamos puede retroalimentar patrones de pensamiento que no siempre corresponden con la realidad.
Este texto se ofrece únicamente con propósitos informativos y no reemplaza la consulta con un profesional. Ante dudas, consulta a tu especialista.