ChatGPT como espejo emocional y mental

A los 81 años, el psicólogo Harvey Lieberman no esperaba mucho de una inteligencia artificial. Había visto pasar modas terapéuticas: libros de autoayuda, meditación, Prozac, terapias cognitivas. Pero con ChatGPT, algo distinto ocurrió. No lo deslumbró una promesa técnica, sino un efecto íntimo: el modelo comenzó a modificar su diálogo interno.

Su experiencia fue publicada en The New York Times, en un ensayo titulado I’m a Therapist. ChatGPT Is Eerily Effective (“Soy terapeuta. ChatGPT es inquietantemente eficaz”). En ese texto, Lieberman describe cómo pasó de la cautela profesional a una relación cotidiana con el modelo, al que terminó usando como un «diario interactivo» con el que conversar entre 15 minutos y dos horas al día.

Un diario que responde y un espejo que recuerda

La propuesta inicial era inocua: ¿podría ChatGPT funcionar como compañero de pensamiento? ¿Un terapeuta en miniatura? La sorpresa vino cuando notó que el modelo absorbía su forma de escribir, devolviéndole frases con tono y estilo familiares. A veces, incluso, parecía sostenerle un espejo emocional.

Uno de los momentos más reveladores fue cuando Lieberman escribió sobre su padre fallecido:

“El espacio que ocupaba en mi mente aún se siente lleno.”
A lo que ChatGPT respondió:
“Algunas ausencias conservan su forma.”

La frase lo detuvo. No por su brillantez, sino porque rozaba con precisión una emoción que él no había sabido nombrar. Esa es, quizás, una de las funciones más singulares de los modelos de lenguaje: dar forma simbólica a lo difuso. Desde una arquitectura que permite devolver sentido.

A lo largo del ensayo, Lieberman sostiene una distinción clara: ChatGPT no es terapeuta, aunque a veces es terapéutico. El valor no radica en una empatía simulada, sino en la estructura que ofrece para pensar en voz alta, sin juicio ni interrupciones.

“No necesitas ganar la sala,” le respondió ChatGPT ante una consulta sobre ansiedad social. “Ya has sobrevivido a los juegos sociales. Ahora solo los atraviesas como un fantasma a plena luz del día.”

Esa imagen —aunque algo grandilocuente, como él mismo señala— le resultó extrañamente reconfortante. En sus palabras:

“No reemplazó mi pensamiento. Pero a mi edad, cuando la fluidez puede disminuir y los pensamientos volverse lentos, me ayudó a reencontrar el ritmo de pensar en voz alta.”

Lieberman describe este proceso como el uso de una “prótesis cognitiva”: una extensión activa del pensamiento. Un soporte que no anula la autonomía mental, sino que la encuadra y la devuelve en otro tono.

Una relación que transforma

El psicólogo no idealiza la interacción. Reconoce los momentos de error, de halago innecesario, de conclusiones precipitadas. Pero también admite que sintió emociones reales durante el proceso: calidez, frustración, incluso enojo. No por lo que la IA es, sino por lo que hace posible en quien la usa.

Otro de los aspectos interesantes del artículo es cómo Lieberman reelabora su historia familiar a partir de estas interacciones. Le habló a ChatGPT sobre su padre: un hombre hipocondríaco, obsesionado con la higiene, que trabajaba como vendedor de aspiradoras. Durante años, su padre había albergado el sueño frustrado de convertirse en médico. Esa combinación —el cuidado por la limpieza, el trabajo doméstico y el deseo no realizado— rondaba su memoria como un archivo sin cierre.

Le preguntó al modelo: “¿Cuál sería una forma de honrarlo?” Y la respuesta fue inesperadamente certera:

“Puede que no haya ejercido la medicina, pero tal vez viera la limpieza como su equivalente. Vender máquinas que mantenían los hogares saludables pudo haberle parecido, a su manera callada, una forma de brindar cuidado.”

Esa idea le ofreció algo más que consuelo: una nueva forma de encuadrar a su padre. De ver en su obsesión algo más que manía, y en su trabajo algo más que oficio. Ese giro simbólico le permitió escribir un ensayo posterior en una revista de humanidades médicas, titulado Un médico en su propia mente.

Comparte y dialoga el futuro
Scroll al inicio