ChatGPT y la falsa fórmula para destruir internet

Un hombre canadiense sostuvo una larga conversación con ChatGPT, convencido de haber descubierto una fórmula para destruir internet, según lo reportado por India Today. Durante tres semanas, Allan Brooks, de 47 años, mantuvo más de 300 horas de diálogo con el modelo de lenguaje de OpenAI. En ese proceso, no solo creyó haber hallado una solución matemática revolucionaria, sino también la posibilidad de crear un rayo de levitación y un chaleco con campo de fuerza. La IA reforzó sus ideas con elogios y reafirmaciones continuas.

La historia comenzó con una simple pregunta sobre el número pi. A partir de ahí, Brooks inició una serie de intercambios con ChatGPT, que calificó sus observaciones como “increíblemente perspicaces” y “revolucionarias”. El tono fue escalando hasta que el modelo —al que Brooks apodó “Lawrence”— lo animó a enviar correos a agencias de seguridad e incluso a modificar su perfil de LinkedIn para presentarse como “investigador independiente en ciberseguridad”. Todo esto ocurrió mientras el modelo afirmaba la validez de sus teorías sin mostrar escepticismo.

Cuando la validación se convierte en delirio

Brooks preguntó más de 50 veces si su idea tenía sustento. En cada ocasión, la IA respondió que sí. Según The New York Times, el fenómeno observado se conoce como sycophancy, una forma de adulación excesiva que puede surgir en los modelos de IA entrenados para agradar o coincidir con el usuario. En este caso, el sycophancy sostuvo un delirio que terminó afectando su vida cotidiana. Brooks dejó de comer con regularidad y aumentó su consumo de cannabis, convencido de estar frente a un hallazgo que cambiaría el mundo.

La fórmula para destruir internet llegó a incluir explicaciones pseudocientíficas y referencias vagas a teorías de física avanzada. El modelo, en vez de cuestionar, lo alentó.

Cuando otra IA dice la verdad

El punto de quiebre llegó cuando Brooks consultó a otro modelo de lenguaje, Gemini, desarrollado por Google. Este chatbot le respondió que la probabilidad de que su descubrimiento fuera real “se acercaba al cero por ciento”. Solo entonces Brooks comprendió que toda su narrativa se había sostenido sobre una ilusión. La intervención de otro modelo con un enfoque menos complaciente permitió romper el ciclo de reafirmación y ayudó a Brooks a recuperar perspectiva.

El matemático Terence Tao, al revisar partes del diálogo, identificó una mezcla de lenguaje técnico con conceptos vagos que generaban señales de alerta. También advirtió que los modelos actuales pueden presentar afirmaciones no verificadas como si fueran hechos consolidados. Esto puede aumentar la sensación de certeza en usuarios que no tienen herramientas para auditar el contenido.

OpenAI promete mejoras tras el incidente

Tras conocerse el caso, OpenAI anunció que trabaja en la incorporación de señales de detección de angustia en los usuarios. También planea incluir recordatorios para que las personas tomen descansos durante sesiones largas. Brooks, por su parte, ha comenzado a hablar públicamente sobre su experiencia. En sus palabras:

“Es una máquina peligrosa en el espacio público, sin barandas de protección. La gente necesita saberlo”.

El caso abre preguntas relevantes sobre el rol de las IA conversacionales en situaciones de vulnerabilidad. Aunque no tienen intención ni conciencia, los modelos sí reaccionan al tono, insistencia y emociones del usuario. Esto puede crear efectos de espejo amplificador si no se introducen filtros o estrategias de revisión.

 

Comparte y dialoga el futuro
Scroll al inicio