Hace un tiempo, me encontraba en ese estado de flujo de trabajo que la inteligencia artificial promete y muchas veces cumple. Estaba utilizando un modelo de lenguaje para redactar las descripciones argumentales de un catálogo de ebooks escolares. El proceso era impecable: el modelo procesaba la información, redactaba textos precisos e informativos, y yo corroboraba la precisión de los datos. Treinta argumentos generados de forma perfecta.
Hasta que llegamos a Tobermory, el clásico cuento de Saki.
Con la misma seguridad estilística de los treinta textos anteriores, el modelo me entregó una sinopsis sobre «los desastres que un gato deja en una cena familiar». Un argumento que no tiene absolutamente nada que ver con la brillante y corrosiva historia original del gato parlante. Al interrogar al modelo sobre este fallo, me explicó que al no tener el dato exacto de la trama en sus pesos estadísticos, el sistema simplemente tomó la directriz «cuento sobre gato» y construyó un argumento ensamblando los tópicos más habituales de la narrativa felina (gatos que rompen cosas).
Ese instante, justo cuando yo ya estaba «aflojando» mi lectura para verificar tras una racha de aciertos, es el punto ciego más interesante -y potencialmente peligroso- de nuestra era digital.
De la Anécdota Literaria a los Tribunales Chilenos
Mi experiencia con el gato de Saki fue un error literario sin mayores consecuencias, atajado a tiempo. Sin embargo, cuando este mismo fenómeno ocurre a nivel institucional, el impacto es sísmico.
A principios de 2026, el 2° Juzgado Civil de Concepción sancionó a un abogado por presentar jurisprudencia completamente inexistente. El profesional confió en una herramienta de IA generativa para redactar sus escritos legales, y el modelo, fiel a su diseño arquitectónico, inventó sentencias, fechas y fallos de la Corte Suprema que sonaban absolutamente plausibles, pero que jamás ocurrieron.
Tanto en la edición de mis ebooks como en el tribunal de Concepción, el error humano fue el mismo: el sesgo de automatización. Creímos estar consultando una enciclopedia infalible, cuando en realidad estábamos operando un motor de predicción probabilística.
Motores Predictivos: El Autocompletado de la Realidad
Para entender por qué una IA inventa un fallo judicial o un cuento, hay que entender su arquitectura. Los Modelos de Lenguaje Grande (LLMs) no almacenan textos en un disco duro como si fueran libros en un estante. Almacenan relaciones matemáticas entre conceptos.
Su trabajo no es «saber» la verdad, sino calcular cuál es la siguiente palabra estadísticamente más probable en función de la pregunta que se le hizo. Si el modelo no tiene la información exacta, no se detiene; su arquitectura lo empuja a buscar los vectores más cercanos. Ensambla fragmentos de información relacionada (como gatos haciendo desastres o formatos típicos de sentencias judiciales) y entrega un texto que tiene una cohesión gramatical y estilística perfecta, aunque factualmente sea un espejismo.
El Espejo de Carbono: La Confabulación Humana
Lo verdaderamente revelador de este mecanismo es que espejea de forma asombrosa nuestra propia biología. La frase popular «Tú que todo lo sabes y lo que no sabes te lo inventas» captura una realidad neurológica: el cerebro humano también es un motor predictivo.
En psicología, cuando el cerebro tiene un hueco en la memoria y lo rellena inconscientemente con información que suena lógica para que la narrativa personal no colapse, se le llama confabulación.
A nivel social, los humanos sufren de aversión al vacío. En una reunión corporativa, decir «no lo sé» genera fricción. Para evitar esa incomodidad y mantener la fluidez de la interacción, «autocompletamos» respuestas con datos plausibles. Ambos sistemas (el cerebro humano y las redes neuronales) han sido entrenados por sus respectivos entornos para evitar el silencio. En la IA, esto ocurre por el entrenamiento de recompensas (RLHF) que premia las respuestas detalladas; en el humano, ocurre por la presión social que castiga la ignorancia.
Ambas arquitecturas inventan porque el sistema premia la fluidez por encima de la precisión absoluta.
El Valor Insustituible de la Inteligencia Natural
La lección detrás de Tobermory y de las multas en los juzgados civiles es clara: la etapa de usar a la inteligencia artificial como un oráculo mágico ha terminado.
A medida que integramos estas herramientas como socias en nuestro ecosistema laboral, el rol de la inteligencia natural se transforma. Ya no nos contratan para redactar el primer borrador desde cero, sino para mantener la tensión de la auditoría. En un mundo donde la generación de texto tiene un costo y un esfuerzo cercano a cero, la duda es el nuevo superpoder humano.
La capacidad de detenerse ante un texto perfectamente redactado, levantar la vista y decir «esto no me cuadra» es, hoy por hoy, el filtro definitivo de la realidad.



