La Inteligencia Artificial General, una tecnología capaz de superar el cerebro humano y salvar la economía
En 2026 el mundo espera el anuncio de la AGI, una IA capaz de superar el cerebro humano y resolver los problemas del mundo. Silicon Valley ha invertido miles de millones en esta utopía con resultados decepcionantes hasta ahora: ¿es una realidad inminente o una quimera tecnológica? Daniel ArjonaMadrid Si Samuel Beckett hubiera decidido escribir una secuela de Esperando a Godot en las postrimerías de 2025, no habría situado a sus vagabundos existenciales, Vladimir y Estragon, bajo un árbol seco en un camino rural. Los habría sentado frente a una pantalla con una ventana de chat parpadeante, aguardando con fe ciega el advenimiento de la Inteligencia Artificial General (AGI por sus siglas en inglés). Llevamos dos años conteniendo la respiración, hipnotizados por la promesa de que la máquina despierte, nos mire a los ojos y nos revele el secreto del universo. Pero la deidad digital que nos anuncia Silicon Valley se parece, por ahora, más a un becario entusiasta que al oráculo de Delfos. La AGI es, sin duda, la «Idea del Año». No porque haya llegado con trompetas y ángeles de silicio, sino precisamente por su estrepitosa, ruidosa y angustiante ausencia que, sin embargo, ha movilizado descomunales inversiones y energías financieras nunca vistas. Nos ha dejado varados en una especie de Sala de Espera de la Historia. 2025 ha sido el año de la gran fractura, un tiempo de esquizofrenia cultural donde la realidad se ha partido en dos mitades irreconciliables. Por un lado, nos deslumbra la cara de la utopía: vemos a sir Demis Hassabis, de Google DeepMind, con su frac impecable, subiendo al estrado en Estocolmo a finales de 2024 para recoger el Nobel de Química. No lo ganó por mezclar reactivos en un laboratorio lleno de vapores, sino por codificar un algoritmo -AlphaFold- capaz de resolver la biología y plegar proteínas con una clarividencia divina. Por otro lado, sufrimos la cruz de la quimera: informes técnicos demoledores, como el que Apple filtró en junio de 2025 bajo el título de The illusion of thought (La ilusión del pensamiento), certifican que nuestros chatbots, esos supuestos herederos de Goethe y Einstein, fallan estrepitosamente en problemas de lógica que un niño resolvería mientras se hurga la nariz. Vivimos atrapados en esta paradoja. La tecnología es, simultáneamente, sublime y estúpida. Como advertía el filósofo Nick Bostrom en su muy influyente Superinteligencia (Tell), nuestros conceptos intuitivos de «inteligente» y «estúpido» se quiebran ante una entidad que puede simular la arquitectura del cerebro humano a una velocidad de vértigo, pero es incapaz de entender que en un vaso boca abajo, el agua se cae. La AGI se ha convertido en un «objetivo móvil», una zanahoria mecánica que justifica inversiones milmillonarias, enmarca las aspiraciones de laboratorios faústicos y, a menudo, sirve como herramienta de marketing para ocultar las limitaciones del presente bajo un manto de terminología casi religiosa. Para intentar cartografiar este territorio minado por el hype y la incertidumbre, y separar el grano de la paja algorítmica, EL MUNDO ha reunido a un auténtico sanedrín. Hemos hablado de primera mano con cuatro de las mentes más lúcidas de este negocio. Nos acompañan Gary Marcus, el científico cognitivo que lleva años ejerciendo de Casandra oficial del sector, advirtiendo que el rey está desnudo; François Chollet, creador de la biblioteca Keras y del prestigioso ARC Prize, quien sostiene que la memorización no es inteligencia; el profesor Ramón López de Mantarás, pionero de la IA en España y voz de la conciencia humanista europea; y la catedrática Melanie Mitchell, experta en sistemas complejos del Instituto Santa Fe, quien nos ayuda a entender por qué la fuerza bruta nunca engendrará comprensión. A través de sus voces, y en contraste con los evangelistas de la tecnología, intentaremos descifrar si estamos ante el amanecer de una nueva especie o ante la mayor estafa piramidal de la historia de la ciencia. PRIMER ACTO: ¿QUIMERA? (La caída del modelo comercial) Hubo un tiempo, hace apenas 15 minutos, en que creímos en el «pensamiento mágico» de Silicon Valley. La liturgia era sencilla y seductora: si alimentas a la Bestia con suficientes datos (todo Internet, todos los libros, todos los correos electrónicos) y suficiente energía (toda la red eléctrica de un país pequeño), la conciencia emergería por generación espontánea. Era la teología de la fuerza bruta, el dogma del «escalado infinito». Pero 2025 ha sido el año en que los dioses sangraron. Gary Marcus no oculta su satisfacción (una mezcla ácida de «te lo dije» y resignación académica) al constatar para este diario que la fiesta se ha terminado. «Sí, me siento completamente reivindicado», nos confiesa Marcus con una sonrisa que se intuye al otro lado de la línea. «Recibí muchas críticas por mis advertencias de que llegaríamos a un punto de rendimientos decrecientes, incluso de Altman y Musk, pero eso es exactamente lo que ha sucedido». Para Marcus, la ley de rendimientos decrecientes ha caído como una guillotina sobre las aspiraciones de empresas como OpenAI. Inyectar miles de millones de dólares en hornos de silicio ya no produce una mente más brillante; solo produce una factura de la luz astronómica y un modelo ligeramente más parlanchín. «OpenAI es el WeWork de la IA», dispara Marcus, comparando la empresa de Sam Altman con la burbuja inmobiliaria más infame de la década. La analogía es letal: una valoración financiera que flota en el éter de la especulación mientras la realidad técnica toca techo. «Después de que saliera GPT-5, tarde y decepcionante, se hizo obvio», sentencia. La crítica de Marcus va más allá de lo técnico; apunta al corazón del modelo de negocio. «Muchos de los que dirigen las cosas carecen de la formación científica suficiente para entender realmente lo que está pasando», asegura, «y tienen incentivos financieros para promover enfoques de escalado, funcionen o no». Estamos ante una industria adicta a su propia promesa, incapaz de reconocer que «más grande» no es «más listo». Si Marcus es el profeta del colapso económico, François Chollet es el ingeniero jefe que señala los fallos estructurales en los planos del edificio. En su conversación con EL MUNDO, Chollet desmonta el mito de que los Grandes Modelos de Lenguaje (LLMs) son el camino regio hacia la AGI. Para él, son una off-ramp, una salida de la autopista. Nos hemos desviado de la ruta hacia la inteligencia real para estacionar en un área de servicio muy lujosa, llena de luces de neón, donde unos loros mecánicos repiten frases que suenan bien pero significan nada. «No creo que los LLMs estén en camino de evolucionar hacia una IA similar a la humana», afirma Chollet con la frialdad de un lógico. Su argumento central es la eficiencia, o la falta de ella. «La inteligencia se trata fundamentalmente de eficiencia», explica, «y los LLMs son un sustrato ineficiente. Requieren billones de tokens para adquirir capacidades que un humano adquiere con muy pocos datos». Mientras que un niño aprende a no tocar el fuego con una sola experiencia dolorosa, un LLM tiene que leer millones de descripciones sobre quemaduras para generar una estadística plausible. Son, en palabras de Chollet, «bases de datos de conocimiento cristalizado en lugar de motores de inteligencia fluida». Hemos confundido la memorización enciclopédica con la capacidad de adaptarse a lo nuevo, el mapa con el territorio, el simulacro con lo real. «El progreso sigue una curva sigmoidea», advierte, «hemos recogido la fruta madura del escalado de datos estáticos, y ahora nos enfrentamos al problema más difícil del razonamiento genuino». A este coro de escepticismo se une Melanie Mitchell. Desde el Instituto Santa Fe, Mitchell pone el dedo en la llaga de la arquitectura misma que sustenta la revolución actual: los transformers. Al preguntarle si cree que esta tecnología es el camino fundacional hacia la AGI, su respuesta a EL MUNDO es tajante: «No creo que los LLMs y la actual arquitectura transformer, en sus formas actuales, conduzcan a una inteligencia 'a nivel humano', excepto en algunas áreas estrechas». Mitchell nos invita a mirar debajo del capó del coche deportivo que nos han vendido, y lo que encuentra es un vacío cognitivo alarmante. «Carecen de un número de aspectos importantes de la cognición humana», enumera con precisión quirúrgica, «incluyendo la memoria episódica (es decir, la memoria de las propias experiencias), la integración coherente de diferentes modalidades... y la metacognición: la conciencia y capacidad de razonar sobre el propio conocimiento y procesos de pensamiento». Es decir, la máquina no sabe lo que sabe, ni recuerda haberlo aprendido. Es un eterno presente estadístico. Para Mitchell, el problema no es solo de escala, sino de naturaleza. «La forma en que se entrenan los sistemas actuales es extraordinariamente ineficiente y no conduce a los tipos de abstracción y modelos coherentes del mundo que tienen los humanos». Mientras Max Tegmark nos advertía en Vida 3.0 (2017) sobre no confundir una IA «a medio cocinar» con la inteligencia general, Mitchell confirma que ni siquiera hemos encendido el horno correcto. Necesitamos métodos de entrenamiento que sean «menos pasivos, más activos por parte del sistema de aprendizaje», algo que la simple ingesta masiva de texto jamás proporcionará. SEGUNDO ACTO: ¿REALIDAD INMINENTE? (La respuesta científica) Pero justo cuando el cinismo amenaza con devorarlo todo, cuando estamos a punto de tirar nuestros iPhones al río convencidos de que todo fue una estafa piramidal orquestada por vendedores de humo, entra en escena la ciencia dura. La que gana premios Nobel Si el Primer Acto fue la comedia de los errores comerciales, este Segundo Acto es el drama de la competencia real. Aquí, la IA no ha muerto; solo ha mutado. Hemos dejado de intentar imitar al «humano que habla» (el charlatán de feria que aprueba exámenes de abogacía de memoria) para intentar imitar al «científico que piensa». Para cartografiar con rigor este nuevo territorio, hemos acudido directamente a las fuentes originales: las declaraciones que vertebran este bloque provienen de dos extensas, recientísimas y brillantes entrevistas publicadas en el canal oficial de DeepMind en Youtube. Dos documentos de una densidad intelectual infrecuente que nos permiten asomarnos, sin filtros, a la hoja de ruta real del laboratorio más avanzado del planeta. El protagonista de este giro de guion es Demis Hassabis, el cerebro detrás de Google DeepMind. Su victoria en Estocolmo no es un premio más; es la canonización de la IA como herramienta epistemológica. En su lección magistral, Hassabis introduce una distinción que debería grabarse en mármol sobre las oficinas de San Francisco para exorcizar a los demonios del hype: la diferencia abismal entre el Sistema 1 y el Sistema 2. ChatGPT, Claude, Gemini y sus primos lejanos son puro Sistema 1: rápidos, intuitivos, propensos a la fabulación, improvisadores de jazz borrachos que completan frases por probabilidad estadística. La verdadera AGI, el Santo Grial que Hassabis persigue, requiere el Sistema 2: lento, deliberativo, planificador, capaz de razonar antes de hablar. «No construimos un buscador mejor», afirma Hassabis con la gravedad de quien ha visto el código fuente del universo, «construimos el telescopio Hubble de la biología». Su creación, AlphaFold, no alucina estructuras proteicas ni inventa biografías de periodistas; predice la realidad material con una precisión que ha jubilado medio siglo de trabajo de laboratorio manual. Aquí no hay «manguera de falsedad»; hay, potencialmente, la cura para el cáncer o el diseño de enzimas que devoren plástico. Y luego está Shane Legg, el cofundador de DeepMind, que maneja el calendario del apocalipsis (o de la salvación, según el día). Mientras el público general bosteza ante la falta de novedades espectaculares en 2025 y se queja de que Siri sigue sin entender nada, Legg advierte que estamos en una «meseta engañosa». Es la calma chicha antes del tsunami. En sus recientes intervenciones, Legg sostiene que la verdadera revolución no vendrá de chatbots que escriban haikus mediocres, sino de la integración silenciosa de robots, visión artificial y código. Cuando la IA tenga ojos y manos, cuando deje de ser un cerebro en una cubeta y se convierta en un agente en el mundo, la curva de progreso, que ahora parece plana a ojos del profano, se disparará verticalmente. Legg no parpadea al mantener su fecha en el calendario: 2028. Hay un 50% de posibilidades de que para entonces tengamos una AGI mínima. No una que nos cuente un chiste, sino una que pueda aprender cualquier tarea cognitiva que un humano pueda realizar. Es el momento en que la máquina deja de ser una herramienta y pasa a ser un colega (o un reemplazo). Sin embargo, frente a este tecno-optimismo científico, nuestro «sanedrín de la disidencia» levanta la mano para pedir la palabra. La gran pregunta que divide al mundo hoy no es si la IA nos matará, sino si seguir echando carbón (datos y chips) a la locomotora hará que vaya más rápido o simplemente que todo explote. ¿Funcionan las famosas Leyes de Escalado o hemos chocado contra un muro? Melanie Mitchell, con la lucidez de quien estudia sistemas complejos y no folletos de inversión, desmonta la retórica del crecimiento infinito. Cuando le preguntamos sobre si espera que las capacidades exponenciales continúen, su respuesta es un baño de realidad semántica: «Por el término 'capacidades exponenciales', creo que la pregunta significa 'mejora exponencial en los benchmarks [medidas referenciales] destinados a medir las capacidades generales'. Pero, por supuesto, los benchmarks en los que se prueban los sistemas de IA no siempre son buenas medidas de las capacidades que pretenden evaluar». Mitchell señala la trampa: diseñamos exámenes a medida para que la máquina saque un 10, y luego nos sorprendemos cuando falla en la vida real. «Vemos sistemas de IA superando a los humanos en muchos benchmarks, pero fallando inesperadamente cuando se aplican a tareas del mundo real», nos explica. Y sobre la estrategia de más-es-mejor, su veredicto es severo: «Puede ser que añadir 'exponencialmente más' datos y cómputo conduzca a mejoras, pero es una forma muy ineficiente de avanzar». Ramón López de Mantarás es aún más contundente al analizar la supuesta evolución de los modelos. Donde otros ven progreso, él ve estancamiento maquillado. «Es cada vez más evidente que hemos llegado al punto de los rendimientos decrecientes», asegura a EL MUNDO. «Solamente tenemos que comparar GPT-5 con GPT-4o para darnos cuenta. GPT-5 alucina más... y cuando hay algunas mejoras en ciertas tareas muy concretas, no son en absoluto proporcionales al aumento de la complejidad del modelo». Para el profesor Mantarás, la industria está jugando a la ruleta rusa con la termodinámica. «Los LLM por sí mismos han tocado techo», sentencia. «Ir más allá requiere desarrollar sistemas neurosimbólicos y tener en cuenta la corporeidad». François Chollet coincide plenamente en este diagnóstico clínico: «El crecimiento de las capacidades de la IA nunca ha sido exponencial y tampoco lo será en el futuro. El progreso sigue una curva sigmoidea». La conclusión de nuestros expertos es que Silicon Valley intenta llegar a la Luna construyendo escaleras cada vez más altas. Puede seguir añadiendo peldaños (más GPUs, más datos), pero llegará un momento en que la estructura colapse bajo su propio peso. Para llegar a la Luna no se necesita una escalera más alta; se necesitas un cohete. Y, por ahora, lo que tenemos es una escalera muy cara. TERCER ACTO: ¿ALGORITMO O MENTE? (El abismo filosófico) Aquí es donde el ingeniero se topa con el metafísico, y donde la tecnología choca violentamente contra la «Barrera del Significado». Dejamos atrás los teraflops y entramos en el terreno de la ontología. Porque, en última instancia, ¿puede una máquina pensar si no está viva? ¿Puede haber inteligencia sin vísceras, sin miedo a la muerte, sin la urgencia biológica que da sentido a cada uno de nuestros pensamientos? Mantarás nos lanza un jarro de agua fría conceptual. Para él, una inteligencia sin cuerpo es una contradicción en los términos, una «inteligencia alienígena» con la que es imposible empatizar. «La falta de conocimientos de sentido común impide que la IA tenga una comprensión profunda, es decir denotacional del lenguaje», argumenta. Ese conocimiento tácito que usted y yo compartimos -que los objetos caen, que el tiempo fluye hacia adelante, que insultar a un desconocido en el metro es mala idea- no se aprende leyendo Wikipedia ni en Reddit. Se aprende existiendo. Se aprende teniendo un cuerpo que ocupa espacio, que siente frío y es vulnerable. «La vía a seguir implica la adquisición de un modelo del mundo. Y para ello, la IA necesita un cuerpo que le permita interactuar con el mundo», sentencia Mantarás . Sin corporeidad, los LLMs son la encarnación literal del experimento mental de la Habitación China de John Searle: manipulan símbolos sintácticos con una destreza sobrehumana, pero no tienen ni la más remota idea de qué significan esos símbolos. Son bibliotecarios ciegos organizando libros por el olor del pegamento, simulando una sabiduría que no poseen. Melanie Mitchell profundiza en esta herida filosófica cuando le preguntamos si una IA puede «comprender» sin cuerpo. «Depende de lo que signifique 'comprender'», nos responde con cautela filosófica. «Si hablamos de comprensión de una manera humana, con la misma riqueza y sensibilidad al contexto que los humanos, entonces un sistema puede necesitar un cuerpo humanoide y experiencias activas en el mundo». Pero aquí Mitchell introduce un matiz crucial, una grieta por donde se cuela el pragmatismo: «Pero este es un sentido antropocéntrico de 'comprensión', que es algo que podemos querer para algunos usos de la IA... pero no para otros, como los sistemas de IA utilizados para descubrir nuevos patrones en datos, tal como hizo AlphaFold». Es decir, quizás estemos juzgando a un pez por su capacidad de trepar árboles. Quizás la «comprensión» de la máquina sea algo radicalmente distinto, una estadística dopada que, sin «saber» nada, logra resultados que parecen milagros. Pero, ¿es eso inteligencia o es solo un truco de ilusionismo a escala planetaria? Cuarto ACTO: ¿SKYNET O UTOPÍA? (El horizonte) Llegamos al acto final de esta ópera bufa, donde la tragedia se disfraza de cálculo de probabilidades y el destino de la especie se decide en una hoja de Excel. ¿Cómo terminará la película? ¿Con un destello nuclear al estilo Hollywood o con la cura del cáncer? Escenario A: La Distopía (No es Skynet, es la necedad). Olviden a Skynet tomando conciencia nuclear a las 2:14 de la madrugada. El verdadero apocalipsis que nos dibuja Gary Marcus en su charla con EL MUNDO es mucho más prosaico, mucho más gris y, por ello, infinitamente más aterrador. No moriremos carbonizados; moriremos de aburrimiento, confusión y burocracia algorítmica. El riesgo existencial inmediato no es una superinteligencia hostil, sino lo que Marcus bautiza como la «Manguera de la falsedad». Estamos inundando el ecosistema de la información con basura sintética, un vertedero infinito de textos que suenan plausibles pero que no tienen relación necesaria con la verdad. «Estamos bastante jodidos», admite Marcus con una franqueza que desarma. «No veo ninguna solución a corto plazo... La ecosfera de la información se está degradando y empeorará». La democracia no se erosiona por un golpe de estado robótico, sino porque ya nadie sabe qué es real y qué es un deepfake generado por un adolescente en su sótano. «Los líderes tecnológicos siguen jugando al doble o nada con la humanidad y, probablemente, perderán», nos advierte Marcus. Es el triunfo de la «necedad artificial»: un mundo donde la verdad muere ahogada en un océano de mediocridad generada automáticamente. Escenario B: La Utopía (El Renacimiento científico). Al otro lado del ring, con la calma de un monje zen que sabe resolver ecuaciones diferenciales parciales, está la visión de Demis Hassabis. Su argumento es la humillación final para el ego humano, pero también nuestra tabla de salvación. «El cerebro humano tiene límites biológicos», nos recuerda la tesis subyacente en el trabajo de DeepMind. No somos lo suficientemente listos para resolver la crisis climática, curar el Alzheimer o descifrar la fusión nuclear a tiempo. Necesitamos un socio cognitivo. Necesitamos a la AGI no para que nos escriba correos de marketing o genere imágenes de gatos astronautas, sino para que nos salve de nuestra propia incompetencia. Aquí radica la paradoja final que cierra el bloque: para los optimistas científicos, el riesgo existencial no es que la IA sea demasiado lista y nos domine. El riesgo es que no llegue a tiempo. Como sugiere Hassabis, la AGI podría ser la única herramienta capaz de desenredar los nudos gordianos que amenazan nuestra supervivencia. «A curar el cáncer... He perdido demasiados amigos y seres queridos», nos dice Gary Marcus, bajando la guardia y encontrando un punto de acuerdo con sus rivales: eso es lo que realmente importa, y no los chatbots. CONCLUSIÓN: El fin de la adolescencia 2025 cierra oficialmente la etapa del pensamiento mágico. La AGI ha bajado del cielo de la ciencia ficción para aterrizar en el barro de los laboratorios y los balances contables. Ya no es una profecía religiosa; es un problema de ingeniería, de termodinámica y de recursos finitos. Hemos pasado de la euforia adolescente, de creer que un chatbot era un dios encerrado en una caja, a la resaca adulta. La realidad material se impone con su prosaica obstinación: la extracción de minerales raros, el consumo de agua para enfriar centros de datos que hierven, la explotación laboral de etiquetadores humanos en el Sur Global. La nube no es etérea; tiene peso, masa y mancha. Nos quedamos, pues, en esta sala de espera, atrapados en un cliffhanger narrativo digno de Netflix. A nuestra izquierda, Shane Legg mira su reloj y asegura que para 2028 la máquina despertará. A nuestra derecha, Melanie Mitchell y Ramón López de Mantarás se ríen y nos dicen que la inteligencia sin cuerpo es una alucinación, que la «comprensión» no se puede programar en Python. La moneda está en el aire. Y mientras cae, girando sobre sí misma, nosotros, pobres humanos, solo podemos hacer lo único que se nos da mejor que a las máquinas: esperar, dudar y encontrarle la gracia a lo de haber creado algo que no sabemos si es nuestro mejor hijo o nuestro sepulturero.
ARTÍCULOS
12/30/20251 min read


