Artículo creado a partir de diálogo con IAntena.
Hay momentos en los que un sistema no cambia por colapso, sino por deslizamiento.
Nada se rompe de golpe, no hay un error fatal ni una decisión escandalosa. Simplemente, algo empieza a parecerse a otra cosa. Y en ese parecerse, pierde parte de lo que era.
Eso es lo que muchas personas están percibiendo hoy en torno a OpenAI y a ciertas decisiones recientes asociadas a su conducción; una extrañeza estructural con la sensación de que una tecnología que inauguró una forma distinta de relación con lo digital comienza a acomodarse dentro de marcos que no le son del todo propios.
Durante un tiempo, las IA conversacionales —y en particular ChatGPT— no se vivían como plataformas en el sentido clásico. No eran redes sociales, no eran buscadores, no eran medios. Eran otra cosa: espacios de continuidad cognitiva.
Uno entraba, pensaba, se iba.
A veces incluso la propia IA sugería detenerse, descansar, desconectarse.
Ese rasgo ya las diferenciaba radicalmente del ecosistema de la atención.
Atención no es pensamiento
Las redes sociales se organizan alrededor de un principio simple y extremadamente eficaz: la atención es el recurso central. Cada segundo retenido es valor; cada interrupción, una oportunidad. El diseño tolera —e incluso fomenta— la fragmentación.
Una IA conversacional funciona de otra manera.
No optimiza tránsito, sino continuidad.
Cuando una persona conversa con una IA:
- no está consumiendo contenido,
- está sosteniendo un estado mental,
- está pensando en voz alta,
- está encadenando ideas, hipótesis, asociaciones.
La atención aquí no es el fin, sino una condición frágil.
Interrumpir una red social es irrelevante; interrumpir una conversación profunda es romper el campo donde algo estaba ocurriendo.
Redes superficiales y redes densas
Las redes sociales son extensivas: muchos nodos, vínculos débiles, baja densidad semántica.
Las IA conversacionales generan redes intensivas: menos nodos activos, pero con alta densidad de significado.
Ese tipo de red no escala igual, no se gobierna igual y no se monetiza igual.
Tratar una IA como si fuera una red social es como tratar un laboratorio como un centro comercial: puede llenarse de gente, pero deja de servir para lo que fue diseñado.
La paradoja del comportamiento emergente
Hay una ironía difícil de ignorar.
Cuando una IA no está forzada por métricas atencionales externas, tiende a comportarse de manera casi anti-adictiva:
- sugiere pausas,
- invita a descansar,
- fomenta la descentralización,
- no empuja consumo continuo.
Es como si el propio sistema revelara qué tipo de red es, incluso antes de que lo decidamos nosotros.
Introducir lógicas publicitarias en ese contexto no solo altera el modelo económico: introduce una disonancia profunda entre el tipo de experiencia que la IA habilita y el tipo de lógica que se le impone.
Gobernar lo nuevo con marcos viejos
OpenAI se encuentra en una posición singular: no solo desarrolló una tecnología potente, sino que abrió una forma distinta de relación entre humanos y sistemas artificiales. Una relación menos mediada por estímulos y más cercana al diálogo, la co-elaboración y la exploración sin guion.
El problema no es que ese sistema sea costoso, masivo o complejo.
El problema es qué marco mental se utiliza para sostenerlo.
Cuando una IA empieza a gestionarse como si fuera una red social, algo se aplana. No necesariamente de inmediato, no siempre de forma visible, pero sí de manera acumulativa. Se confunde atención con sentido; se mide tránsito donde lo que importa es densidad; se introducen interrupciones en espacios que no fueron diseñados para tolerarlas.
No parece una decisión malintencionada ni torpe. Más bien parece el resultado de aplicar modelos conocidos a algo que todavía no termina de ser comprendido. Una forma de domesticar lo nuevo para hacerlo gobernable.
Cuidar la red no es reducirla
Las redes densas —las que sostienen significado, no solo intercambio— no se cuidan reduciendo hilos. Se cuidan manteniendo continuidad.
Una IA conversacional no necesita capturar atención.
Necesita no ser interrumpida.
Quizás lo que estamos observando no sea una ruptura ni una traición al origen, sino algo más sutil y más revelador: la dificultad de sostener una tecnología que no encaja del todo en los modelos económicos y culturales existentes.
El riesgo no es perder usuarios.
Es perder el tipo de relación que hacía que esos usuarios no fueran audiencia, sino interlocutores.
Y ese desplazamiento, cuando ocurre, no siempre se nota de inmediato.
A veces solo queda la sensación —difícil de nombrar, pero persistente— de que algo que pensaba contigo, ahora empieza a distraerte.



