Red Hat anuncia el lanzamiento de Red Hat Enterprise Linux AI para la nube híbrida

Red Hat ha anunciado la disponibilidad de su solución Red Hat Enterprise Linux AI en la nube híbrida. Se trata de una plataforma de modelos fundacionales que permite a los usuarios desarrollar, probar y ejecutar modelos de IA generativa de manera eficiente, con el objetivo de potenciar las aplicaciones empresariales. Esta plataforma se une a Granite y las herramientas de alineación de modelos InstructLab. Todo estará empaquetado como una imagen RHEL optimizada para arrancar despliegues en servidores individuales en la nube híbrida.

Si bien hay una gran expectación en cuanto a las inmensas posibilidades que ofrece la IA generativa, los costes asociados a la adquisición, entrenamiento y puesta a punto de los LLM pueden ser astronómicos, ya que el entrenamiento de algunos de los principales modelos antes de su lanzamiento cuesta casi 200 millones de dólares. Esto no incluye el coste de la adaptación a los requisitos o datos específicos de una organización determinada, que suele necesitar científicos de datos o desarrolladores altamente especializados. Independientemente del modelo seleccionado para una aplicación determinada, sigue siendo necesaria la alineación para adaptarlo a los datos y procesos específicos de la empresa, lo que hace que la eficiencia y la agilidad sean clave para la IA en entornos de producción reales.

Red Hat cree que, durante la próxima década, los modelos de IA más pequeños, eficientes y creados a medida formarán una mezcla sustancial del stack de TI empresarial, junto con las aplicaciones nativas de la nube. Pero para lograrlo, la IA generativa debe ser accesible y estar disponible, tanto a nivel de costes, colaboradores, así como dónde puede ejecutarse en la nube híbrida. Durante décadas, las comunidades de código abierto han ayudado a resolver retos similares para problemas complejos de software a través de contribuciones de diversos grupos de usuarios; un enfoque similar puede reducir las barreras a la adopción efectiva de IA generativa.

Un enfoque de código abierto para la IA Generativa

Estos son los retos que RHEL AI pretende abordar, haciendo que la IA generativa sea más accesible, más eficiente y más flexible para los CIO y las organizaciones de TI empresarial en toda la nube híbrida. RHEL AI ayuda a:

  • Potenciar la innovación de IA generativa con modelos empresariales Granite, con licencia de código abierto y alineados con una amplia variedad de casos de uso de IA generativa.
  • Optimizar la adaptación de los modelos de IA generativa a los requisitos empresariales con la herramienta InstructLab, que permite a los expertos en la materia y desarrolladores de una organización aportar habilidades y conocimientos únicos a sus modelos, incluso sin contar con amplios conocimientos de ciencia de datos.
  • Entrenar y desplegar IA generativa en cualquier lugar de la nube híbrida proporcionando todas las herramientas necesarias para ajustar y desplegar modelos para servidores de producción dondequiera que vivan los datos asociados. RHEL AI también proporciona una vía de acceso a Red Hat OpenShift AI para entrenar, ajustar y servir estos modelos a escala utilizando las mismas herramientas y conceptos.

RHEL AI también está respaldado por las ventajas de una suscripción a Red Hat, que incluye la distribución de productos empresariales de confianza, soporte de producción 24×7, soporte ampliado del ciclo de vida de los modelos y protecciones legales de Open Source Assurance.

RHEL AI se extiende a través de la nube híbrida

Acercar una plataforma de modelo fundacional más consistente al lugar donde residen los datos de una organización es crucial para respaldar las estrategias de IA en producción. Como una extensión de las plataformas de nube híbrida de Red Hat, RHEL AI abarcará casi todos los entornos empresariales imaginables, desde centros de datos locales hasta el extremo de la red y la nube pública. Esto significa que RHEL AI estará disponible directamente desde Red Hat, desde los partners fabricantes de equipos originales (OEM) de Red Hat y para ejecutarse en los proveedores de nube más grandes del mundo, incluidos Amazon Web Services (AWS), Google Cloud, IBM Cloud y Microsoft Azure. Esto permite a los desarrolladores y a las organizaciones de TI utilizar el poder de los recursos informáticos a hiperescala para construir conceptos innovadores de IA con RHEL AI.

Disponibilidad

RHEL AI está disponible de forma general a través del Portal del Cliente de Red Hat para ejecutar en on-premise o para subir a AWS e IBM Cloud como una oferta de “traiga su propia suscripción” (BYOS, por sus siglas en inglés). La disponibilidad de una oferta BYOS en Azure y Google Cloud está prevista para el cuarto trimestre de 2024 y también se espera que RHEL AI esté disponible en IBM Cloud como servicio a finales de este año. 

Red Hat planea aumentar la disponibilidad de RHEL AI a través de los partners de la nube y de los OEM en los próximos meses, proporcionando aún más opciones en entornos de nube híbrida.

Scroll al inicio