La última semana ha dejado una señal difícil de ignorar: la carrera de la inteligencia artificial ya no se explica solo por quién lanza el modelo más potente. El dinero, el talento y la presión competitiva se están moviendo hacia capas mucho más concretas: infraestructura, silicio, orquestación de agentes, pricing por uso y control del dato empresarial.
La sucesión de noticias parece caótica vista de una en una. SpaceX ha firmado un acuerdo con Cursor que incluye una opción de compra por 60.000 millones de dólares. Meta prepara nuevos recortes mientras mantiene una previsión de gasto de capital de hasta 135.000 millones de dólares. Apple ha confirmado que Tim Cook dejará el cargo de consejero delegado el 1 de septiembre y que John Ternus, hasta ahora responsable de ingeniería de hardware, tomará el relevo. Amazon y Anthropic han ampliado su alianza con un compromiso de más de 100.000 millones de dólares en tecnologías AWS durante la próxima década.
La lectura común es clara: la Inteligencia Artificial ha dejado de ser un complemento de producto para convertirse en una reorganización profunda del sector tecnológico.
La infraestructura se come buena parte del relato
Durante 2023 y 2024, muchas empresas vendieron la IA como una mejora de productividad dentro de productos ya existentes. En 2026, la conversación se ha vuelto mucho más física. Hablamos de centros de datos, chips propios, contratos de capacidad, GPUs, aceleradores, memoria, energía y acuerdos a diez años.
El caso de Anthropic y Amazon es una buena muestra. La startup se compromete a gastar más de 100.000 millones de dólares en AWS durante la próxima década y asegura hasta 5 GW de capacidad para entrenar y ejecutar Claude. Amazon, a su vez, refuerza su papel como proveedor de infraestructura para una de las familias de modelos más relevantes del mercado. No es solo una alianza comercial: es una forma de cerrar capacidad de cómputo antes de que la necesiten otros.
La opción de SpaceX sobre Cursor apunta en una dirección parecida, aunque desde otro ángulo. Cursor no es un fabricante de chips ni un operador cloud, pero controla una de las interfaces más codiciadas de la nueva programación asistida por IA. Si una compañía con capacidad de cómputo extrema intenta asegurarse una posición en esa capa, el mensaje es evidente: el valor no está solo en el modelo, también en el lugar donde el usuario trabaja todos los días.
Meta representa la cara más incómoda de la transición. Su previsión de capex para 2026 se mueve entre 115.000 y 135.000 millones de dólares, mientras nuevas informaciones apuntan a unos 8.000 recortes y al cierre de 6.000 puestos abiertos. La frase que recorre Silicon Valley, menos elegante pero bastante precisa, es que parte del gasto que antes iba a humanos ahora va a silicio.
Apple apuesta por el hardware cuando otros corren hacia el agente
El relevo en Apple también se puede leer dentro de esta misma historia. Tim Cook pasará a ser presidente ejecutivo y John Ternus asumirá el cargo de CEO. Que el sucesor venga de hardware no parece casual. Apple lleva años construyendo una ventaja alrededor de su propio silicio, el control del dispositivo, la privacidad local y la integración entre hardware y software.
Mientras OpenAI, Google y Microsoft empujan agentes en la nube y plataformas de productividad cada vez más automatizadas, Apple parece reforzar su apuesta por una IA más pegada al dispositivo. Es una estrategia arriesgada, porque el mercado castiga la sensación de llegar tarde. Pero también encaja con su historia: cuando Apple gana, suele hacerlo controlando la experiencia desde el chip hasta la interfaz.
La pregunta es si esa ventaja será suficiente en una etapa en la que las empresas quieren agentes que operen sobre Slack, Gmail, documentos, repositorios, CRM, bases de datos y flujos internos. Ahí no basta con un buen dispositivo. Hace falta una capa de orquestación que conecte herramientas, permisos, memoria, seguridad y facturación.
OpenAI ya ha movido ficha con los workspace agents en ChatGPT, agentes compartidos para equipos, impulsados por Codex, capaces de ejecutar flujos largos, integrarse con Slack y trabajar incluso cuando el usuario no está delante. Google ha respondido con Gemini Enterprise Agent Platform, que reúne creación, despliegue, identidad, observabilidad y gobierno de agentes. La batalla pasa de “qué chatbot responde mejor” a “qué plataforma va a ejecutar el trabajo”.
El fin de la tarifa plana de IA
La otra gran señal de madurez está en los precios. GitHub Copilot se mueve hacia una facturación basada en uso mediante AI Credits, aunque mantiene los precios base de Copilot Business y Enterprise en 19 y 39 dólares por usuario al mes. Salesforce también empuja Flex Credits en Agentforce, donde cada acción del agente consume créditos.
Esto cambia la relación entre cliente y proveedor. La IA barata, ilimitada y empaquetada como una suscripción sencilla fue útil para acelerar adopción, pero difícilmente podía sostenerse cuando los agentes empiezan a ejecutar tareas largas, llamar a herramientas, generar código, leer documentos y consumir muchos más tokens.
Para los departamentos financieros, el debate será menos romántico. Ya no bastará con decir que una herramienta “mejora la productividad”. Habrá que medir qué procesos automatiza, cuánto cuesta cada ejecución, cuántas veces falla, cuánto trabajo humano evita y qué riesgo introduce. El “tokenmaxxing”, usar más tokens como si eso fuera una métrica de productividad, puede convertirse en la nueva versión del presentismo digital.
Modelos más eficientes y sistemas mejor diseñados
El mercado de modelos también se está moviendo rápido. OpenAI ha lanzado GPT-5.5, orientado a trabajo real en programación, análisis, investigación, documentos y uso de herramientas. DeepSeek ha presentado V4 en versión Pro y Flash, con ventana de contexto de 1 millón de tokens y adaptación a chips Huawei Ascend. Qwen3.6-27B muestra otra tendencia importante: modelos mucho más pequeños capaces de superar en pruebas de programación a predecesores bastante mayores.
La consecuencia es profunda. Si el rendimiento deja de depender de forma tan directa del tamaño bruto del modelo, cambian los costes, la latencia, el despliegue local, la soberanía tecnológica y la competencia entre laboratorios. No todos los casos de uso necesitarán el modelo más caro. Muchas empresas ganarán más combinando modelos adecuados, buenos datos, herramientas conectadas y procesos bien definidos.
Ahí está quizá la lección más práctica de toda la semana. La ventaja no estará solo en usar un modelo nuevo, sino en convertir el trabajo en un sistema. Definir qué significa una buena respuesta, qué pasos debe seguir un agente, qué fuentes puede usar, cuándo debe pedir aprobación, cómo se revisa el resultado y qué métricas separan una automatización útil de una demo vistosa.
Las empresas que entren en la IA agéntica sin esa disciplina dependerán cada vez más de las plataformas de terceros. Las que sepan codificar su conocimiento interno, proteger sus datos y diseñar flujos medibles tendrán más margen para negociar, cambiar de proveedor o construir sobre varias capas. La pregunta de fondo ya no es qué modelo usar, sino dónde está el valor que una compañía no puede permitirse perder.
Preguntas frecuentes
¿Por qué se habla tanto de infraestructura en Inteligencia Artificial?
Porque los modelos y agentes actuales necesitan enormes cantidades de cómputo, memoria, red, almacenamiento y energía. La capacidad disponible empieza a ser una ventaja competitiva.
¿Qué son los agentes de IA en empresas?
Son sistemas capaces de ejecutar tareas de varios pasos, conectarse a herramientas, usar contexto interno, pedir aprobaciones y continuar trabajo más allá de una respuesta puntual.
¿Por qué cambia el pricing de herramientas como Copilot o Agentforce?
Porque los agentes consumen recursos de forma variable. Las suscripciones planas son difíciles de sostener cuando una tarea puede requerir muchos tokens, llamadas a herramientas y ejecuciones largas.
¿Qué debería preguntarse una empresa antes de adoptar agentes?
Debe saber qué procesos quiere automatizar, qué datos necesita proteger, qué plataforma controlará la orquestación y cómo medirá si el agente aporta valor real.
vía: tertulia14












