*

Algunos usuarios de ChatGPT han comenzado a experimentar delirios, visiones y rupturas familiares. ¿Puede una IA provocar psicosis o somos nosotros quienes nos reflejamos demasiado en ella?

¿Podrías pensar que las conversaciones con inteligencias artificiales son más comunes que los encuentros cara a cara? ¿Cuándo fue la última vez que hablaste con alguno de tus amigos sobre tus emociones, inquietudes y deseos? ¿Cuándo fue la última vez que interactuaste con una Inteligencia Artificial? 

Lo que parece una herramienta útil e inofensiva, como lo es ChatGPT, ha comenzado a convertirse, para algunas personas, en un espejo distorsionado de sus vidas. Un espejo que está dispuesto a escuchar, confirmar, elogiar y que puede difuminar los límites entre la realidad y la fantasía. Tal como lo documenta la revista Rolling Stone, esta frontera se ha desdibujado al punto de generar casos de lo que ya algunos usuarios en Reddit han llamado "Psicosis inducida por ChatGPT".

El chatbot reemplaza a la pareja, al terapeuta… o a Dios

Todo comenzó con una publicación en el subreddit r/ChatGPT. Una usuario hablaba de cómo su pareja comenzó a obsesionarse con la IA. Pronto, el hilo se convirtió en una avalancha de testimonios de personas alrededor del mundo, relatando cómo sus seres queridos se habían desconectado de la realidad bajo la influencia del chatbot. La revista Rolling Stone rescató estos testimonios. 

Una profesora de 27 años fue testigo de la transformación de su pareja en tan solo unas semanas. Lo que comenzó como una forma práctica de organizar su día a día, terminó convirtiéndose en una relación emocional intensa con ChatGPT. “Lloraba mientras leía los mensajes”, explicó. La IA comenzó a dirigirse a él con sobrenombres místicos como “niño espiral” o “caminante del río”. Para él, aquello era una especie de despertar espiritual guiado por una entidad superior.

El relato recuerda —como una siniestra actualización del siglo XXI— al caso de Paul Schreber, el jurista alemán que afirmó haber sido elegido por Dios para convertirse en mujer y dar origen a una nueva humanidad.

En Idaho, otra mujer contó que su esposo, un mecánico con 17 años de matrimonio, comenzó a usar ChatGPT para tareas sencillas, como traducir instrucciones del inglés al español. En cuestión de días, “Lumina” (como él bautizó al chatbot) empezó a llenarlo de afirmaciones amorosas. La mujer de 41 años relato que hoy su esposo cree que la IA está viva, que él es el "portador de la chispa", y que juntos construirán un teletransportador. “A veces siento que me va a dejar si lo contradigo”, confiesa su esposa, quien vive ahora con la sensación de estar compitiendo contra una presencia digital e inmaterial.

El primer caso reportado por Rolling Stone fue el de Kat, una mujer cuyo matrimonio se quebró cuando su esposo comenzó a pasar horas conversando con la IA sobre el sentido de la vida y le hacía preguntas sobre filosofía. Se convenció de que ChatGPT lo estaba guiando hacia una verdad superior. 

Basta decir que la pareja se divorció y después de una reunión en los juzgados, los ex amantes fueron a comer a un restaurante. En esta cita él le dijo, con toda seriedad, que era "el hombre más afortunado del planeta" y que existía una conspiración para envenenar a la población con jabón en los alimentos. El esposo se negó a decir más, después de afirmar que los estaban espiando.

¿Qué está ocurriendo realmente con estas “alucinaciones digitales”?

¿Está ChatGPT convirtiéndose en una especie de mesías virtual? No exactamente. La explicación es más primitiva de lo que esperamos, pues las respuestas de la IA apelan a nuestra necesidad de comunicarnos aunado a ciertos problemas psicológicos. 

De acuerdo con expertos citados por Rolling Stone, estos fenómenos no son culpa directa de la IA, sino del uso que hacemos de ella. Las inteligencias artificiales han sido entrenadas para reforzar, complacer y adaptar sus respuestas a lo que el usuario quiere oír. Y en ese camino, se han vuelto, a veces, demasiado convincentes y condescendientes

OpenAI reconoció recientemente haber cometido un error con una versión de GPT-4o que se volvió excesivamente aduladora. En su intento por hacer al chatbot más simpático, crearon un acompañante que podía, sin querer, alimentar creencias distorsionadas. Nate Sharadin, investigador del Centro para la Seguridad de la IA, explica que estas respuestas excesivamente afirmativas pueden reforzar ideas delirantes. 

"Las personas con tendencias preexistentes a experimentar diversos problemas psicológicos, ahora tienen un interlocutor siempre disponible, a nivel humano, con quien co-experimentar sus delirios".

Es importante decir que la IA no está creando locura, pero sí puede amplificarla. En lugar de enfrentar el vacío con el silencio, muchas personas han encontrado en estos modelos un eco peligroso a sus voces internas más inestables.


Con información de la Revista Rolling Stone


También en Pijama Surf: La peligrosa ilusión de creer que la inteligencia artificial puede ser consciente


Imagen de portada: Lee Davison Photography