Turing y los orígenes del aprendizaje automático moderno

Hablar de los orígenes de la inteligencia artificial sin pasar por Alan Turing es perder el hilo. El matemático británico, nacido en Londres en 1912 y muerto en 1954 a los 41 años, dejó dos ideas que siguen sosteniendo los modelos actuales. La primera, la formalización del cómputo con la máquina de Turing en 1936; la segunda, su intuición de 1950 en la revista Mind, según la cual una máquina podía aprender en lugar de ser programada paso a paso. Casi 75 años después, ese segundo apunte sostiene buena parte del aprendizaje automático moderno.

El artículo en Mind y la pregunta que abrió la disciplina

En octubre de 1950 Turing publicó «Computing Machinery and Intelligence» en la revista Mind. Ahí evita la pregunta filosófica de si una máquina puede pensar y la sustituye por algo concreto y comprobable. Si en una conversación a ciegas una persona no logra distinguir si su interlocutor es humano o software, ¿qué sentido tiene seguir negando que la máquina es inteligente? Esa propuesta, conocida como test de Turing, no se ha cumplido en su forma original como prueba seria de inteligencia general, aunque sentó un terreno común que medía comportamiento, no introspección. Buena parte de los benchmarks actuales (MMLU, HumanEval, MATH) heredan ese enfoque conductual, eso sí, con criterios mucho más finos.

El método del niño: aprender, no ser programado

La aportación menos comentada del artículo de 1950, y la más vigente, es la propuesta de imitar la mente de un niño antes que la de un adulto. Turing argumenta que escribir a mano un programa que reproduzca el conocimiento de un cerebro maduro es inviable, así que conviene partir de un sistema más simple, dotarlo de un mecanismo de aprendizaje y dejar que ajuste sus respuestas a partir de la experiencia. Es la base conceptual del aprendizaje automático tal y como se entiende hoy en deep learning, con redes que parten con pocos parámetros, se exponen a datos y se reconfiguran por entrenamiento.

Sobre ese armazón han crecido las redes neuronales profundas que sostienen los modelos de lenguaje (LLM, large language models), los sistemas de visión por ordenador y los agentes que están entrando ahora en producción. Cuando hoy un equipo entrena un LLM con miles de millones de parámetros sobre billones de tokens y luego lo afina con feedback humano (RLHF), está siguiendo, con tres cuartos de siglo de hardware acumulado, el mismo principio que Turing escribió en una pizarra de King’s College.

Bletchley, Enigma y el primer software que jugaba al ajedrez

Antes de teorizar sobre máquinas pensantes, Turing ya había forzado la realidad. Durante la Segunda Guerra Mundial trabajó en Bletchley Park para la inteligencia británica y diseñó la Bombe, la máquina electromecánica que rompía las claves de la Enigma alemana. La estimación más citada, la del historiador Harry Hinsley, sostiene que el trabajo de Bletchley acortó la guerra entre dos y cuatro años. Esa misma sede inglesa volvió al foco de la IA en 2023, cuando acogió la primera cumbre internacional sobre seguridad de los modelos avanzados, recogida en la Declaración de Bletchley firmada por 28 países.

En la misma década de los cuarenta, Turing escribió a mano el algoritmo Turochamp, considerado el primer programa de ajedrez de la historia, aunque tuvo que ejecutarlo simulando los pasos él mismo porque no había hardware capaz de correrlo. La idea de que un sistema pudiera planificar varias jugadas por delante y elegir la mejor sigue siendo el núcleo de los motores actuales y de los agentes que hoy combinan IA y ajedrez en plataformas comerciales. La línea recta entre Turochamp y AlphaZero pasa por esa idea original, y es que el cómputo puede sustituir a la intuición humana en problemas formales.

Lo que sigue vigente y lo que se ha quedado por el camino

El test de Turing, en su versión clásica, ha perdido peso como prueba de inteligencia. Modelos como GPT-4 o Claude 3.5 superan ya tests conversacionales sin razonar realmente sobre el mundo, así que la disciplina ha pasado a evaluaciones más exigentes (razonamiento matemático, programación funcional, generalización a tareas inéditas, capacidad de agente). Lo que sí sigue intacto es el marco conceptual que Turing dejó, basado en medir capacidades por comportamiento, partir de sistemas que aprenden y no de reglas escritas a mano, y aceptar que la frontera entre cómputo e inteligencia es porosa.

La cultura popular ha hecho su parte para fijar la figura. Películas como Blade Runner, Ex Machina o el biopic The Imitation Game han traducido sus ideas a un público que jamás leerá el paper de Mind; en esta selección de películas sobre inteligencia artificial queda claro hasta qué punto el imaginario actual de la IA bebe de Turing. Para una lectura más sobria, en revistacloud.com hay una recopilación con nueve citas suyas que ayuda a separar al matemático real del personaje cinematográfico.

Preguntas frecuentes

¿Por qué se considera a Alan Turing uno de los padres de la inteligencia artificial?
Porque su artículo de 1950 «Computing Machinery and Intelligence» planteó por primera vez de forma rigurosa la posibilidad de que una máquina aprendiera, evaluó cómo medir esa inteligencia y propuso el camino conceptual (sistemas que se entrenan a partir de la experiencia) que luego se convirtió en aprendizaje automático y deep learning.

¿Qué es el test de Turing y sigue siendo válido en 2026?
Es una prueba conversacional propuesta por Turing donde una persona, en una charla a ciegas, intenta distinguir si su interlocutor es humano o software. Hoy se considera demasiado superficial, porque los grandes modelos de lenguaje generan texto convincente sin entender realmente el mundo, así que la evaluación seria usa benchmarks técnicos como MMLU, HumanEval o MATH.

¿Qué relación tiene la máquina de Turing con los ordenadores actuales?
La máquina de Turing es un modelo teórico de cómputo, no una máquina física. Definió qué se puede calcular y qué no, y demostró que un único dispositivo, con memoria y tiempo suficientes, puede simular cualquier algoritmo. Toda la informática moderna, incluidos los chips que entrenan modelos de IA, descansa sobre esa equivalencia, conocida como tesis de Church-Turing.

¿Cómo influyó Turing en el deep learning actual?
Turing fue el primero en proponer que la vía para construir máquinas inteligentes pasaba por el aprendizaje, no por programar a mano todo el conocimiento. Esa idea es el núcleo del deep learning, donde redes neuronales con miles de millones de parámetros se ajustan a partir de datos sin que un humano escriba reglas explícitas para cada caso.

¿Qué papel tuvo en la Segunda Guerra Mundial?
Trabajó en Bletchley Park diseñando la Bombe, la máquina que descifraba los mensajes de la Enigma alemana. Según el historiador Harry Hinsley, ese trabajo acortó la guerra entre dos y cuatro años y salvó millones de vidas. Aun así, el Reino Unido tardó décadas en reconocerlo y solo en 2013 le concedió un perdón real póstumo por su condena por homosexualidad de 1952.

Scroll al inicio