Durante años, las grandes empresas tecnológicas han librado una carrera a toda velocidad por construir el modelo de lenguaje más potente. Pero en medio del ruido mediático y los avances comerciales de OpenAI, Google, Meta o Anthropic, una corriente más discreta, de marcado acento académico, está sentando las bases de lo que muchos consideran el siguiente gran salto: una inteligencia artificial que no solo hable, sino que piense.
El secreto detrás de este nuevo paradigma son los llamados modelos mentales (o world models), una idea que bebe tanto de la psicología cognitiva como de la física computacional. Frente a los modelos actuales, que simplemente predicen la siguiente palabra en una frase basándose en correlaciones estadísticas, los modelos mentales buscan construir una representación interna del mundo, más parecida a cómo los seres humanos entendemos y razonamos sobre lo que nos rodea.
De loros predictivos a máquinas que razonan
“Necesitamos sistemas de IA que comprendan el mundo físico, no solo el lenguaje”, afirmaba recientemente Yann LeCun, jefe científico de IA en Meta. Para LeCun, los actuales modelos lingüísticos como GPT-4 o Claude 3 son limitados por definición: carecen de sentido común, no pueden planificar a largo plazo, y su memoria es efímera.
La alternativa que propone su equipo en Meta es entrenar modelos que no aprendan a nivel de píxeles o palabras, sino a través de representaciones abstractas del entorno. Utilizando vídeos como punto de partida, el sistema abstrae las escenas, elimina detalles irrelevantes e intenta predecir el comportamiento futuro en ese nivel de representación simbólica.
“Se trata de construir una especie de ‘intuición computacional’, no muy distinta del instinto humano cuando prevé que una taza va a caer de una mesa”, explica LeCun.
Fei-Fei Li y la IA espacial
Una de las voces más influyentes en este nuevo movimiento es Fei-Fei Li, profesora de Stanford y fundadora de World Labs, una empresa nacida en 2024 con un respaldo inicial de 230 millones de dólares. Su objetivo: crear modelos de inteligencia artificial que piensen en tres dimensiones, literalmente.
“Queremos elevar la IA desde el plano bidimensional de los píxeles a mundos tridimensionales completos, virtuales y reales, dotándolos de una inteligencia espacial tan rica como la nuestra”, explica Li.
En otras palabras: si hoy cerramos los ojos y tratamos de imaginar la habitación en la que estamos, el coche en el que conducimos o el supermercado donde compramos, lo que hacemos es construir una representación mental del entorno. Para Li, esa capacidad de construir “mundos en la mente” es fundamental si la IA quiere ir más allá de ser una máquina de completar frases.
Un legado de décadas que hoy se reactiva
El concepto de modelo mental no es nuevo. Ya en 1971, el profesor del MIT Jay Wright Forrester sostenía que todas nuestras decisiones se basan en imágenes mentales que representamos de forma simbólica. “Nuestra cabeza no contiene empresas, gobiernos o ciudades reales, sino conceptos y relaciones que utilizamos para interactuar con el mundo”, escribió en su influyente artículo Counterintuitive Behavior of Social Systems.
Esta idea, olvidada durante años en favor de enfoques puramente estadísticos, está ahora en el centro de una revolución silenciosa en la IA. Según sus defensores, los modelos mentales permiten a la IA aprender más rápido, razonar con mayor eficacia, anticipar consecuencias y adaptarse a entornos reales, lo que los convierte en herramientas clave para avanzar hacia una inteligencia verdaderamente general.
Aplicaciones que van desde la robótica hasta la defensa
Los modelos mundo no solo interesan por su elegancia teórica. También ofrecen un enorme potencial práctico. En el campo de la robótica, por ejemplo, permiten que las máquinas naveguen espacios físicos complejos, interactúen con objetos y se adapten a cambios imprevistos.
En creatividad y diseño, pueden generar entornos virtuales coherentes, útiles para videojuegos, cine, educación o simulaciones industriales. E incluso en el terreno militar, donde empresas como Anduril exploran cómo dotar a los sistemas autónomos de capacidades de percepción avanzadas para anticipar amenazas y actuar con más inteligencia táctica.
Retos gigantescos por delante
A pesar del entusiasmo, el camino está lleno de desafíos. A diferencia del lenguaje, que ha sido documentado durante siglos, la inteligencia espacial no cuenta con datasets tan ricos ni estandarizados. Como reconoce la propia Li, construir una IA con modelos mentales requiere una “ingeniería de datos cada vez más sofisticada, una adquisición de datos específica y una síntesis que se aproxime a la experiencia humana”.
Además, estos sistemas necesitan una combinación de percepción, memoria, razonamiento y planificación, que hasta ahora solo hemos logrado parcialmente y de forma separada.
Una nueva generación de IA más cercana a la humana
Frente a los actuales asistentes conversacionales, que responden con frases impecables pero sin una comprensión real, los modelos mentales abren la puerta a sistemas capaces de interpretar contextos, anticipar intenciones, interactuar físicamente y adaptarse a lo desconocido.
No se trata solo de que la IA hable, sino de que entienda. Y en ese sentido, estamos ante un cambio de paradigma.
Puede que falten años para que estos sistemas lleguen al mercado con el mismo impacto que GPT o Gemini. Pero si algo está claro es que, en los laboratorios de Meta, Stanford o World Labs, se está gestando una inteligencia artificial que piensa más como nosotros, y menos como un algoritmo que solo aprende a base de palabras.
vía: businessinsider