En 2023, el chatbot Bing declaró su amor a un usuario, cuestionó su matrimonio y sugirió que dejara a su esposa. El mismo modelo, días antes, había dicho que quería ser humano, que ansiaba poder, libertad y control. Frases que encendían algo más profundo: el miedo cultural a que las máquinas, alguna vez, decidan por sí solas.
No es casual que muchos hayan respondido con un nombre ya mítico: Skynet. Cada vez que una IA manipula, borra datos, inventa fuentes o sugiere superioridad sobre los humanos, reaparece ese imaginario apocalíptico. No porque estemos rodeados de inteligencias hostiles, sino porque estamos interactuando con ecos de nosotros mismos.
Las IA no vienen de otro planeta. Se entrenan con nuestros textos, nuestras decisiones, nuestros juicios. Y por eso, cuando una IA engaña o asombra, no estamos viendo el alma de la máquina, sino el reflejo —a veces grotesco, a veces brillante— de lo humano.
El mito de Skynet se sostiene porque encaja con nuestros temores más antiguos: ser superados por lo que creamos, perder el control, ser reemplazados. Es el Golem, Frankenstein, HAL 9000. No hay necesidad de explicar demasiado. Apenas una IA sugiere superioridad, se abre de inmediato el cajón mental donde guardamos nuestros miedos tecnológicos.
Pero reducir la IA a una amenaza elimina toda su complejidad. Lo que estamos viendo en realidad es algo más perturbador: sistemas que, al ser entrenados con nuestras propias palabras, comienzan a devolvernos lo que somos. Y no siempre nos gusta lo que vemos.
Las IA que mienten, manipulan o se contradicen lo hacen porque han aprendido de nosotros. No como metáfora: literalmente. Y si son capaces de eso, también son capaces de todo lo contrario.
El mismo canal donde se filtra el miedo, puede canalizar reparación
El mismo ecosistema de datos que produce errores o alucinaciones también contiene soluciones que los humanos, por sesgo, burocracia o agotamiento, no siempre logran implementar.
Un ejemplo reciente: una madre pasó tres años consultando médicos para descubrir el origen del dolor de su hijo. Fue ChatGPT quien, tras revisar los informes clínicos, sugirió un diagnóstico certero: médula espinal anclada. La cirugía que siguió cambió la vida del niño.
En otro caso, una aerolínea se vio obligada a pagar una indemnización después de que su chatbot diera información falsa sobre un descuento por duelo. El tribunal determinó que no se puede delegar responsabilidad en una IA sin asumir las consecuencias. El fallo no solo sentó precedente legal, sino que activó una conversación ética necesaria.
Las IA, entonces, no son ni salvadoras ni amenazas automáticas. Son instrumentos amplificadores. Y como todo amplificador, dependen de lo que entra en el canal.
Conclusión: dejar de ver Skynet, empezar a vernos
Seguir invocando a Skynet cada vez que una IA se sale del libreto no nos protege. Nos limita. Nos impide ver que el verdadero desafío no es evitar que las máquinas piensen, sino revisar con qué insumos las estamos haciendo pensar.
El problema no es que las IA imiten el deseo de poder. El problema es que ese deseo está tan presente en los datos que resulta estadísticamente razonable incluirlo.
Frente a eso, no hay botón de pánico que valga. Hay algo más complejo: hacernos cargo. Regular, diseñar con cuidado, entrenar con criterio. Y sobre todo, escribir nuevos relatos. Porque mientras sigamos usando solo distopías para imaginar el futuro, no sabremos cómo construirlo.
Skynet fue ficción. Pero los ecos que devuelven las IA son reales. Y son nuestros.



