La inconsistencia en IA retrasa el camino hacia la AGI

Los modelos de inteligencia artificial han alcanzado hitos sorprendentes en áreas como matemáticas avanzadas, programación o generación de texto coherente a gran escala. Sin embargo, siguen fallando en operaciones simples que cualquier estudiante de secundaria podría resolver. Esta inconsistencia en IA está en el centro del debate actual sobre la viabilidad de la AGI (Inteligencia Artificial General).

Según lo reportado por Business Insider, el CEO de Google DeepMind, Demis Hassabis, afirmó que incluso modelos de última generación como Gemini, mejorados con técnicas de razonamiento como DeepThink, pueden obtener medallas de oro en la Olimpiada Internacional de Matemáticas… y al mismo tiempo cometer errores elementales en problemas de álgebra escolar.

Esta contradicción, lejos de ser anecdótica, representa el límite estructural de la IA actual. Por eso, tanto Hassabis como el CEO de Google, Sundar Pichai, han propuesto una nueva etiqueta para esta etapa: AJI – Artificial Jagged Intelligence (inteligencia artificial dentada o irregular). Un concepto que define inteligencias desparejas, brillantes en unas áreas y débiles en otras.

La consistencia como umbral para una verdadera AGI

El término jagged (irregular, desigual) captura un fenómeno inquietante: la IA puede resolver con solvencia una tarea compleja si se ajusta bien a patrones estadísticos conocidos, pero pierde el hilo ante ejercicios que requieren comprensión flexible, razonamiento transversal o memoria activa.

“No debería ser tan fácil encontrar una falla trivial en un sistema tan sofisticado”, dijo Hassabis durante el pódcast Google for Developers.

Y lo que impide esa solidez es, precisamente, la falta de consistencia en IA: no basta con acumular potencia, hace falta coherencia estructural.

Sam Altman, CEO de OpenAI, coincidió en esta evaluación al presentar GPT‑5 la semana pasada. Aunque describió el modelo como “generalmente inteligente”, reconoció que no es capaz aún de aprender de forma continua ni de razonar como un sistema autónomo. Para Altman, la ausencia de aprendizaje adaptativo en tiempo real es una de las piezas más importantes que aún falta para hablar de AGI en serio.

¿Por qué una IA resuelve un teorema complejo, pero falla en una suma?

La paradoja central es clara: si una IA puede ganar competencias de matemáticas avanzadas, ¿por qué se equivoca con tareas tan elementales como identificar la mitad de un número par o seguir instrucciones básicas?

La respuesta involucra varios factores combinados:

1. IA sin comprensión real: correlación no es comprensión

Los modelos de lenguaje como GPT‑5 o Gemini no comprenden conceptos en el sentido humano. Funcionan prediciendo la palabra o símbolo más probable a continuación, según los millones de ejemplos en los que han sido entrenados. Eso significa que pueden producir textos sofisticados en temas complejos si han visto muchos ejemplos parecidos.

Pero cuando se enfrentan a una consigna ambigua, a un ejercicio poco frecuente o a una tarea que exige inferencia abstracta en múltiples pasos, no cuentan con una estructura conceptual interna real para resolverlo. No están razonando, están aproximando.

2. Patrón ≠ estructura: lo que no se repite, falla

En el corazón de estos modelos está el reconocimiento de patrones estadísticos. Esto los vuelve excelentes en tareas donde las regularidades son abundantes y predecibles, como redactar correos o completar funciones matemáticas conocidas.

Sin embargo, las tareas escolares o domésticas suelen requerir algo distinto: comprensión de contexto, causalidad o intención. Por ejemplo, resolver un problema que dice “si Juan tiene la mitad de las manzanas que Pedro, ¿cuántas tiene si Pedro tiene 8?”, exige un tipo de razonamiento lógico que no se basa solo en patrones frecuentes, sino en modelos mentales internos que las IA aún no poseen.

3. Memoria efímera: no recuerdan lo que acaban de decir

Otra limitación clave es la falta de memoria funcional. Los LLMs (Modelos de Lenguaje de Gran Escala) como GPT-4 o Gemini no recuerdan interacciones anteriores, salvo las que se encuentren explícitamente en el contexto del mensaje actual.

Eso significa que pueden generar una buena respuesta aislada, pero no sostener una secuencia de razonamientos encadenados si no está todo presente en el prompt. Esto limita gravemente su capacidad de planificación, coherencia narrativa o resolución de problemas en varios pasos.

4. Datos complejos, tareas básicas subrepresentadas

Los modelos han sido entrenados en vastos corpus de texto: papers científicos, foros técnicos, libros, código, etc. Ahí abundan ejemplos de tareas complejas, pero las tareas escolares básicas no son tan frecuentes ni sistemáticas en esos datos.

Por tanto, la IA puede reconocer la estructura de una derivada parcial compleja, pero no “sabe” que 5×3=15 salvo que haya visto explícitamente esa operación muchas veces.

5. Sin metacognición: no saben cuándo están equivocadas

Finalmente, las IA actuales carecen de metacognición: no pueden monitorear su propio proceso, evaluar si una respuesta es confiable o detectar que cometieron un error. Lo que para un humano sería una señal intuitiva de duda (“esto suena mal, mejor reviso”), para la IA es invisible. Esto explica por qué pueden fallar con total convicción, generando respuestas erróneas con tono de autoridad.

El reto: avanzar sin perder lo simple

Para avanzar hacia una inteligencia verdaderamente general, no basta con que la IA sea brillante en nichos especializados. Debe ser capaz de moverse con fluidez entre tareas simples y complejas, adaptarse al contexto y aprender en tiempo real. Eso requiere cambios profundos:

  • Integrar sistemas de memoria de largo plazo.
  • Desarrollar modelos cognitivos más integrados (no solo predictivos).
  • Implementar tests de consistencia interna como parte del proceso de entrenamiento.
  • Y sobre todo, redefinir qué significa inteligencia en el contexto artificial.

Hassabis lo dijo con claridad: no basta con escalar. Hay que cambiar la estructura misma de lo que entendemos por IA.

Una inteligencia todavía a medio camino

Hoy, la IA se comporta como un estudiante que puede memorizar respuestas de un examen universitario, pero se pierde al resolver un problema cotidiano. Esa asimetría, aunque frustrante, es también una señal de lo que ya se ha logrado… y de lo que aún falta por construir.

La consistencia en IA no es un lujo técnico. Es la base necesaria para confiar, integrar y expandir estos sistemas hacia usos verdaderamente transformadores.

Comparte y dialoga el futuro
Scroll al inicio