La inteligencia artificial general (AGI) —un modelo hipotético capaz de realizar tareas cognitivas al nivel humano— ha pasado de ser una idea marginal a convertirse en un motivo real de acción para muchos estudiantes universitarios. Según un artículo reciente, jóvenes de instituciones como MIT y Harvard están abandonando sus estudios para trabajar a tiempo completo en iniciativas que buscan evitar un escenario de catástrofe: la extinción humana a manos de una IA desbordada.
Alice Blair, por ejemplo, dejó el MIT en 2023. Temía no alcanzar a graduarse antes de que una AGI emergente provocara el colapso civilizatorio. Ahora trabaja como redactora técnica en el Center for AI Safety, una organización sin fines de lucro que investiga cómo reducir los riesgos asociados al desarrollo acelerado de estas tecnologías.
Otros estudiantes citados comparten motivaciones similares. Algunos se declaran impulsados por la posibilidad de contribuir a la mitigación de un evento de nivel extinción. Otros, más pragmáticos, explican que si las IAs van a automatizar por completo la economía en menos de una década, cada año en la universidad es un año perdido. En todos los casos, hay una convicción común: el tiempo es corto y la urgencia es real.
Este relato no es aislado. Según una encuesta realizada entre estudiantes de Harvard, la mitad expresó preocupación por el impacto de la IA en sus futuras carreras. Paralelamente, voces influyentes como Sam Altman (OpenAI) y Demis Hassabis (Google DeepMind) predicen que la AGI podría llegar antes de 2030. En ese escenario, los trabajos administrativos —los primeros en la fila de automatización— serían los más afectados.
Mientras tanto, empresas como Anthropic y organizaciones filantrópicas respaldadas por multimillonarios destinan recursos crecientes a iniciativas de “alineamiento”, es decir, al diseño de IA seguras que no actúen en contra de los intereses humanos. Algunos jóvenes han optado por sumarse a estos espacios en lugar de continuar sus estudios. Y muchos de ellos, como es el caso de varios entrevistados, han conseguido empleo precisamente en esas mismas instituciones que lideran el desarrollo de los sistemas que temen.
La narrativa del riesgo: entre la precaución legítima y el teatro del apocalipsis
Hasta aquí, los hechos. Pero al leer esta historia detenidamente, surgen algunas preguntas que exceden lo técnico y entran en el territorio del discurso:
¿Qué tipo de lenguaje se está usando para hablar de la AGI? ¿Qué emociones activa? ¿A quién le otorga autoridad? ¿Y qué escenarios deja fuera del cuadro?
La amenaza de “extinción humana” opera como un disparador emocional absoluto. No hay escala de grises. Este tipo de lenguaje remite más a las películas de catástrofes que a una conversación ética sobre tecnología. En lugar de abrir pensamiento, ciñe la imaginación al binomio salvación/desastre, sin espacio para lo cotidiano, lo político o lo social.
Que la inteligencia artificial tenga impactos masivos en el mundo laboral, en la cultura o incluso en la estructura misma del conocimiento es evidente. Pero reducir esos impactos a una narrativa de fin del mundo desvía la atención de otros riesgos mucho más inmediatos: monopolización de tecnologías clave, opacidad en los modelos, decisiones automatizadas sin supervisión pública, entre otros.
Los héroes del miedo
No es menor que muchos de los jóvenes que abandonan la universidad terminen trabajando en las mismas empresas que impulsan el desarrollo acelerado de IA. Ni que las fundaciones que abogan por seguridad estén íntimamente ligadas a laboratorios de frontera. En ese sentido, la historia que se cuenta no es la de un “riesgo externo”, sino la de un ecosistema que se narra a sí mismo como salvador frente a un monstruo que él mismo alimenta.
En este tipo de noticias raramente se incluye la perspectiva de comunidades del Sur Global, ni de disciplinas ajenas al campo tecnológico. El temor a la AGI se plantea como universal, pero su relato es profundamente localizado en los centros de poder académico, económico y mediático del Norte.
¿Y si el monstruo no es la IA, sino la forma en que elegimos imaginarla?
La imagen que acompaña esta noticia (Forbes) —una estructura industrial transformada en un monstruo con colmillos, rugiendo electricidad verde— es potente, pero también reveladora. No muestra una máquina fallando, ni una decisión equivocada. Muestra una criatura que se ha vuelto autónoma, hambrienta, irrefrenable.
Pero tal vez el verdadero rugido no proviene del código, sino de nuestra dificultad para habitar el umbral.
Es legítimo tener precaución. Pero el temor que no se somete a revisión se vuelve instrumento. Y en este caso, podría estar siendo usado para concentrar poder, definir agendas y acallar alternativas. Hablar de AGI sin caer en el delirio requiere más que conocimiento técnico: exige pensamiento simbólico, ética situada y voluntad de imaginar futuros no binarios.
La AGI puede estar cerca. Pero lo que ya está aquí —y nos interpela con fuerza— es la narrativa sobre su llegada. Y esa narrativa, como toda construcción humana, puede ser desmontada, reescrita, o simplemente dejada atrás.



