El machine learning (ML, aprendizaje automático) es la rama de la inteligencia artificial que enseña a un programa a sacar conclusiones a partir de datos en lugar de seguir reglas escritas a mano. En vez de decirle al ordenador «si la factura supera 1.000 €, márcala como sospechosa», le enseñas miles de facturas reales etiquetadas como buenas o fraudulentas y dejas que el modelo encuentre los patrones por su cuenta. Esa idea, que parece simple, es la que sostiene cosas tan distintas como ChatGPT, los filtros antispam de Gmail, las recomendaciones de Netflix o el corrector del móvil.
El término viene de los años cincuenta (Arthur Samuel, IBM, 1959), pero el ML moderno solo despegó cuando coincidieron tres cosas: muchos datos digitalizados, GPUs potentes y baratas, y algoritmos capaces de aprovecharlas. De ahí salieron primero los recomendadores, luego la visión por ordenador y, ya en la última década, los grandes modelos de lenguaje (LLM) tipo GPT, Claude o Gemini. Todos beben del mismo concepto: un modelo matemático que ajusta sus parámetros mientras ve ejemplos.
Cómo funciona un modelo de machine learning
Un proyecto de ML tiene cuatro piezas que casi siempre aparecen en el mismo orden. Primero, los datos: filas con características (la edad de un cliente, el tamaño de un email, los píxeles de una foto) y, si es aprendizaje supervisado, también la respuesta correcta. Segundo, un algoritmo que define cómo se va a aprender: regresión logística, árboles de decisión, redes neuronales. Tercero, el entrenamiento, que consiste en pasarle los datos al algoritmo y dejarle ajustar sus parámetros hasta minimizar el error. Cuarto, la evaluación, donde se mide el rendimiento con datos que el modelo no ha visto antes.
El paso clave es la separación entre datos de entrenamiento y datos de prueba. Si el modelo acierta el 99 % en entrenamiento pero baja al 60 % en prueba, está memorizando en lugar de aprender. A eso se le llama overfitting y es uno de los problemas más persistentes del campo, sobre todo cuando hay pocos ejemplos o están mal etiquetados.
Tipos de aprendizaje automático
El ML se suele dividir en cuatro grandes familias, según cómo se le presenten los datos al modelo.
- Aprendizaje supervisado. Los datos llevan etiqueta. Sirve para clasificar (¿spam o no?) y para predecir valores (¿cuánto va a costar este piso?). Es el enfoque más extendido en empresa porque el resultado se mide en métricas claras: precisión, recall, error medio.
- No supervisado. Los datos no tienen etiqueta. El modelo busca agrupaciones (clústeres de clientes con comportamiento parecido) o reduce dimensiones (resumir 200 variables en 5). Útil cuando quieres explorar y aún no sabes qué pregunta hacer.
- Por refuerzo. Un agente prueba acciones en un entorno y recibe premio o castigo. Es la base de AlphaGo, los robots que aprenden a andar y los nuevos sistemas que ajustan los LLM con feedback humano (RLHF, reinforcement learning from human feedback).
- Autosupervisado. El propio dato genera la etiqueta. Tapas una palabra de una frase y le pides al modelo que la adivine. Sobre esta idea descansan los LLM actuales: GPT-5, Claude Opus 4 o Llama 4 se entrenaron leyendo billones de tokens sin que nadie etiquetara nada a mano.
Algoritmos: del árbol de decisión a la red neuronal
Aunque la prensa solo habla de redes neuronales, en producción siguen mandando los algoritmos clásicos. Un banco que detecta fraude con tarjeta tira casi siempre de modelos basados en árboles (XGBoost, LightGBM, Random Forest) porque entrenan rápido, explican bien sus decisiones y aguantan datos tabulares con muchas variables. La regresión logística sigue siendo la primera opción cuando se necesita un modelo auditable, por ejemplo en scoring crediticio.
Las redes neuronales ganan en cuanto los datos son no estructurados: imágenes, audio, texto, vídeo. La arquitectura transformer, presentada por Google en 2017, cambió por completo el campo del lenguaje y, más tarde, también el de la visión. Hoy un modelo como GPT-5 puede tener cientos de miles de millones de parámetros, pero la idea de fondo —ajustar pesos para minimizar un error— es la misma que en una regresión lineal de hace cuarenta años.
Para qué se usa el ML hoy
El ML ya está integrado en sectores muy distintos. En banca, alimenta motores antifraude que evalúan cada operación en milisegundos. En sanidad, AlphaFold predice la estructura tridimensional de proteínas con precisión cercana a la cristalografía y ya cataloga más de 200 millones. En logística, modelos de previsión de demanda ajustan stock y rutas. En medios, los recomendadores de YouTube, Spotify o TikTok deciden qué se ve después. Y en software, los asistentes tipo Copilot completan código entrenados sobre repositorios públicos.
El cambio más visible es el de los modelos generativos. Empresas como Microsoft, Google o Snowflake están enchufando LLMs a sus suites para que cualquier empleado pueda preguntar a sus datos en lenguaje natural. Snowflake Intelligence, por ejemplo, ya combina ML clásico con agentes basados en LLM dentro del propio almacén de datos. Y en el lado abierto han salido modelos pequeños sorprendentes, como Bonsai 8B, que demuestran que no hace falta un coloso de 500B parámetros para tareas razonables.
Machine learning, deep learning e IA: no son lo mismo
La confusión es habitual. La IA es el paraguas (cualquier técnica que imite capacidades humanas, incluidas las reglas a mano). El ML es una rama de la IA que aprende de datos. El deep learning es a su vez una rama del ML que usa redes neuronales con muchas capas. Y los LLM son una aplicación del deep learning al lenguaje. Dicho de otra forma: todo LLM es deep learning, todo deep learning es ML, todo ML es IA, pero no al revés.
Lo que el ML aún hace mal
Pese al hype, hay límites duros. Los modelos heredan los sesgos de los datos: si entrenas un sistema de selección de personal con currículos históricos donde casi nadie eran mujeres, el modelo tenderá a descartarlas. La explicabilidad sigue siendo un problema serio, sobre todo en redes profundas, lo que choca con regulaciones como el AI Act europeo, que obliga a auditar los sistemas de alto riesgo. Y el coste energético no es menor: entrenar un modelo grande mueve datacenters enteros, lo que ha empujado a fabricantes como NVIDIA o AMD a competir en infraestructura específica para ML, con piezas como HetCCL para clústeres mixtos.
Otra limitación que casi nadie menciona: la mayor parte del esfuerzo en un proyecto real no está en elegir el algoritmo, sino en preparar los datos. Limpiar, etiquetar, deduplicar, decidir qué se queda fuera. Es un trabajo tedioso que ningún modelo resuelve solo y que sigue siendo el cuello de botella de casi todas las iniciativas de IA en empresa.
Por dónde empezar si te interesa
Para quien viene de programación, el camino habitual es Python con scikit-learn para los algoritmos clásicos y PyTorch o JAX para deep learning. Hay catálogos abiertos enormes: Hugging Face acumula más de un millón de modelos preentrenados que se pueden ajustar con pocas líneas. Y para aprender haciendo, una vía cómoda es montarse pequeños proyectos y publicarlos, algo que la propia comunidad organiza en repositorios y galerías de retos prácticos como esta galería de 29 proyectos para aprender IA construyendo.
Preguntas frecuentes sobre machine learning
¿Cuál es la diferencia entre machine learning e inteligencia artificial?
La IA es el campo amplio que busca que las máquinas hagan tareas asociadas a la inteligencia humana. El ML es una de las técnicas dentro de la IA y la que domina hoy: en lugar de programar reglas, se aprende a partir de datos. No toda IA usa ML (un sistema experto con reglas escritas también es IA), pero casi todo lo que se llama IA en 2026 es, en realidad, ML.
¿Hace falta saber matemáticas para hacer ML?
Para usar modelos ya entrenados, no. Hay APIs y librerías que abstraen casi todo. Para entender por qué un modelo falla y arreglarlo, sí hace falta una base de álgebra lineal, probabilidad y cálculo. No hace falta nivel de matemático puro; con el equivalente a primero de ingeniería se cubre el 90 % de los casos.
¿Cuántos datos necesito para entrenar un modelo?
Depende del problema. Una regresión sencilla puede entrenarse con cientos de filas. Una red neuronal para imágenes médicas suele necesitar decenas de miles. Un LLM general se entrena sobre billones de tokens. Para tareas concretas de empresa, el truco está en partir de un modelo preentrenado y hacerle fine-tuning con tus datos: con unos miles de ejemplos suele bastar.
¿Es lo mismo machine learning que deep learning?
No. El deep learning es un subconjunto del ML que usa redes neuronales con muchas capas. Es muy potente con datos no estructurados (imagen, audio, texto), pero exige más datos y más cómputo. Para datos tabulares, los modelos de árboles suelen igualar o superar al deep learning con una fracción del coste.
¿Cómo se mide si un modelo de ML es bueno?
Con métricas pensadas para cada tipo de problema. En clasificación se usan precisión, recall, F1 y la curva ROC. En regresión, error absoluto medio (MAE) y raíz del error cuadrático medio (RMSE). En LLMs, benchmarks como MMLU, HumanEval o GSM8K, además de la evaluación humana, que sigue siendo insustituible para detectar errores sutiles.
¿Puede el machine learning sustituir al programador?
De momento, no. Los asistentes basados en LLM aceleran tareas repetitivas y completan código, pero el diseño de sistemas, la decisión sobre qué construir y la depuración profunda siguen siendo trabajo humano. Lo que sí está cambiando es el reparto de tiempo dentro del oficio: menos copiar y pegar, más arquitectura y revisión.












