La gran promesa tecnológica de esta década es el AGI: una inteligencia artificial general capaz de entender el mundo, razonar y actuar con flexibilidad humana. Pero esa promesa descansa sobre una confusión. Un LLM no es inteligencia en sentido fuerte; es un sistema estadístico entrenado para mapear entradas a salidas con eficacia extraordinaria. Puede escribir, resumir, traducir y programar. Puede incluso simular razonamiento. Pero simularlo no es poseerlo. Aunque OpenAI hable de “reasoning” en GPT-5.4 y explique que estos modelos usan más cómputo interno antes de responder, eso no altera su naturaleza fundamental: sigue siendo una función matemática glorificada. Lo que se vende como razonamiento puede ser útil, pero no es evidencia de comprensión real ni de inteligencia general.
Ese matiz importa porque hoy se presenta como cercanía al AGI lo que en realidad es el perfeccionamiento de un paradigma. Yann LeCun —jefe de IA en Meta, ganador del Premio Turing y una de las figuras más influyentes del campo— ha sostenido que los LLMs no bastan para alcanzar razonamiento y autonomía de nivel humano. Su planteamiento es claro: estos modelos no entienden el mundo como lo haría un sistema verdaderamente general, y hacen falta arquitecturas distintas, más cercanas a “world models” que a simples predictores de texto. Eso no prueba que cada gigante tecnológico sepa que va por el camino equivocado. Pero sí demuestra algo inquietante: incluso dentro de la élite científica existe una duda seria sobre si la ruta dominante conduce al AGI o solo al perfeccionamiento de sistemas útiles, impresionantes y comercializables.
La carrera, sin embargo, sigue concentrada en la misma dirección. No porque esté demostrado que sea la correcta, sino porque es la más visible y la que mejor sostiene la narrativa competitiva entre gigantes tecnológicos. Un estudio de Stanford muestra que los modelos de frontera siguen mejorando, pero también que el campo se está volviendo más convergente: la industria entera refina el mismo carril. El progreso existe, pero cada vez se parece más a una optimización incremental que a una ruptura conceptual capaz de producir una mente general.
La paradoja se aclara al mirar la eficiencia. Ese mismo estudio reporta que el costo de inferencia se ha desplomado y que modelos mucho más pequeños alcanzan umbrales que antes requerían sistemas gigantescos. La trayectoria dominante no muestra el nacimiento del AGI; muestra LLMs cada vez más compactos, baratos y eficientes.
Y ahí aparece el corazón financiero de la burbuja. Las grandes tecnológicas siguen invirtiendo sumas colosales en infraestructura, centros de datos y chips, como si el escalamiento fuera la ruta inevitable hacia una mente general. Pero una parte creciente de esa inversión corre el riesgo de quedar sobredimensionada si el progreso real sigue viniendo por compresión y optimización, no por escala bruta. No es que los centros de datos vayan a volverse inútiles. Es que la magnitud de la apuesta se justifica como si financiara el nacimiento del AGI, cuando la evidencia apunta al perfeccionamiento industrial del mismo paradigma.
Por eso la burbuja terminará explotando. No porque la IA sea falsa o inútil, sino porque se está valorando como si construyéramos una mente, cuando en realidad refinamos una función matemática. Y esa distancia se alimenta de una lógica distorsionada: las grandes inversiones se dirigen a los LLMs porque producen los resultados visibles que el público y los inversionistas quieren ver, aunque eso no implique progreso real hacia el AGI. Lo que el mercado quiere ver no siempre coincide con lo que se necesita descubrir. Cuando esa diferencia se vuelva imposible de ocultar, quedará expuesto que buena parte del entusiasmo descansaba sobre una ilusión: confundir rendimiento comercial con avance científico.
El autor es analista de datos.


