El gigante del comercio electrónico prioriza ser proveedor de la revolución de la inteligencia artificial, más que competir por el liderazgo en modelos fundacionales.
Amazon estaría a punto de incrementar su participación en Anthropic hasta superar los 8.000 millones de dólares, según fuentes citadas por Reuters. Esta operación consolidaría a la compañía como el principal inversor del desarrollador de modelos de lenguaje Claude y confirmaría su estrategia: ser el músculo que impulsa la inteligencia artificial (IA), más que el cerebro que la dirige.
Desde el lanzamiento de modelos como ChatGPT en 2022, Amazon ha adoptado un enfoque menos mediático pero muy rentable. A través de Amazon Web Services (AWS) —su división de servicios en la nube— ha facilitado la infraestructura para entrenar y desplegar modelos de IA de empresas emergentes y grandes tecnológicas. Solo en el primer trimestre de 2025, AWS generó casi 30.000 millones de dólares en ingresos, reflejando su papel crucial en la nueva era digital.
Infraestructura como servicio en la fiebre del oro de la IA
La metáfora del «vendedor de palas» nunca ha sido más adecuada. Mientras gigantes como Google, Microsoft y Meta compiten por liderar el desarrollo de agentes conversacionales, asistentes de productividad o buscadores potenciados con IA, Amazon parece preferir proveer la infraestructura, los chips, la escalabilidad y la energía necesaria para que otros construyan sus productos.
Una inversión adicional en Anthropic reforzaría su posición estratégica, especialmente considerando que Claude, el modelo insignia de esta compañía, ya compite en la élite de los LLMs junto a Gemini y GPT.
Amazon también desarrolla sus propios modelos y chips
Aunque su enfoque es menos visible, Amazon no se ha quedado al margen del desarrollo de modelos de lenguaje. Su modelo Nova-Experimental-Chat-05-14 aparece en el puesto 30 del ranking de HuggingFace, lejos aún de los líderes como GPT-4 (OpenAI) o Gemini 2.5 (Google), pero con margen de mejora.
En paralelo, la compañía también ha invertido en diseño de chips personalizados para IA. Tras lanzar sus procesadores Graviton y Trainium, Amazon presentó en 2024 una versión mejorada de este último para acelerar el entrenamiento y la inferencia de modelos dentro de AWS. Aunque Nvidia sigue dominando el mercado del entrenamiento de IA con sus GPUs y ecosistema CUDA, el terreno de la inferencia presenta mayores oportunidades de disrupción, especialmente en términos de eficiencia y escalabilidad, algo que Amazon domina.
De la nube al hardware, pasando por los modelos fundacionales
Amazon ya ofrece a sus clientes su propio modelo fundacional Nova, que puede ser personalizado y desplegado en entornos privados. Este enfoque modular, alejado de la creación de un producto estrella de consumo, le permite participar en la cadena de valor de la IA sin los riesgos de competir directamente con modelos como ChatGPT o Gemini.
Además, el dominio de Amazon en infraestructuras cloud le da una ventaja única: puede ofrecer una solución integral para desarrollar IA desde cero. Desde el hardware y el centro de datos hasta el modelo fundacional y las APIs de inferencia, AWS se perfila como un «kit completo» para empresas que deseen crear su propia IA sin depender de terceros.
¿Competencia para Nvidia?
Aunque no es probable que Amazon desplace a Nvidia del trono del entrenamiento de IA a corto plazo, sí está posicionándose como una alternativa seria en la inferencia, con chips especializados, redes de centros de datos globales y modelos propios. También hay espacio para colaboraciones: AWS podría ser la plataforma sobre la que Nvidia despliegue sus “AI Factories”, como ya ha hecho con Microsoft o Google.
En resumen, Amazon está trazando una hoja de ruta distinta en la carrera de la inteligencia artificial: menos espectáculo y más rentabilidad estructural. En lugar de buscar el chatbot más inteligente, quiere ser la empresa que lo hospede, lo escale y lo alimente.
vía: tomshardware