Red Hat anunció la disponibilidad general de Red Hat Enterprise Linux AI (RHEL AI), su innovadora plataforma diseñada para facilitar el desarrollo, pruebas y ejecución de modelos de inteligencia artificial generativa en la nube híbrida. Esta plataforma busca transformar la manera en que las empresas integran la IA en sus aplicaciones empresariales, ofreciendo eficiencia y flexibilidad en todo el ciclo de vida de los modelos de IA.
RHEL AI: Uniendo grandes modelos lingüísticos con herramientas avanzadas
En el corazón de RHEL AI se encuentra Granite, una familia de grandes modelos lingüísticos (LLM, por sus siglas en inglés) licenciada como código abierto. Además, incluye las herramientas de alineación de modelos InstructLab, que utilizan la metodología LAB (Alineación a Gran Escala para ChatBots) para adaptar los modelos a las necesidades empresariales. Estas tecnologías están empaquetadas en una imagen optimizada de RHEL, lista para ser desplegada en servidores individuales en la nube híbrida.
El uso de IA generativa ha generado una gran expectativa en la industria, pero también plantea desafíos significativos en términos de costos. El entrenamiento de algunos de los principales modelos de IA puede alcanzar cifras astronómicas, como los casi 200 millones de dólares que cuesta preparar estos modelos antes de su lanzamiento. A estos gastos se suman los costos adicionales de personal especializado, como científicos de datos y desarrolladores, necesarios para adaptar los modelos a los requisitos específicos de una organización.
Accesibilidad y eficiencia como claves del éxito
Red Hat anticipa que, en la próxima década, los modelos de IA más pequeños y personalizados tendrán un rol crucial en las infraestructuras empresariales, junto con aplicaciones nativas de la nube. Sin embargo, para que esta visión se haga realidad, es esencial que la IA generativa sea accesible no solo en términos de costos, sino también en la facilidad de uso y flexibilidad de ejecución en la nube híbrida.
El enfoque de código abierto de Red Hat se posiciona como una solución a estos retos, siguiendo la tradición de las comunidades de código abierto que han resuelto problemas complejos de software a través de contribuciones colaborativas. De la misma manera, RHEL AI busca reducir las barreras de entrada para la adopción de IA generativa en el ámbito empresarial.
Beneficios de RHEL AI: Innovación con modelos empresariales abiertos y alineados
RHEL AI ofrece un enfoque abierto y más eficiente para la IA generativa, proporcionando las siguientes ventajas clave:Innovación impulsada por Granite: Los modelos Granite, licenciados como código abierto, se adaptan a una amplia gama de casos de uso de IA generativa, facilitando su integración en aplicaciones empresariales.
Herramientas de alineación accesibles con InstructLab: InstructLab permite que los desarrolladores y expertos empresariales puedan adaptar los modelos a sus necesidades específicas, sin requerir un conocimiento profundo en ciencia de datos. Esto democratiza el acceso a la IA generativa, permitiendo que equipos con conocimientos únicos en su sector aporten valor a los modelos.
Entrenamiento y despliegue en la nube híbrida: RHEL AI proporciona un entorno completo para ajustar y desplegar modelos de IA en cualquier parte de la nube híbrida, lo que permite aprovechar servidores de producción allá donde los datos de la empresa residen. La plataforma también está preparada para integrarse con Red Hat OpenShift AI, facilitando el entrenamiento y ajuste de los modelos a escala con herramientas y conceptos familiares para los desarrolladores.
Ventajas adicionales de la suscripción a Red Hat
Además de las funcionalidades tecnológicas, RHEL AI incluye todos los beneficios de la suscripción a Red Hat, lo que garantiza acceso a productos empresariales confiables, soporte técnico 24x7, y soporte extendido para los modelos a lo largo de su ciclo de vida. También incluye protección legal mediante la iniciativa Open Source Assurance, brindando mayor seguridad a las empresas que adopten esta solución.
La expansión de RHEL AI en la nube híbrida
Una de las prioridades de Red Hat es llevar RHEL AI más cerca de donde se encuentran los datos de las organizaciones. Como parte de su estrategia para la nube híbrida, RHEL AI estará disponible en diversos entornos empresariales, desde centros de datos locales hasta la nube pública y el borde de la red. Esto incluye una disponibilidad amplia en los principales proveedores de nube, como Amazon Web Services (AWS), Google Cloud, IBM Cloud y Microsoft Azure. De esta manera, las organizaciones podrán aprovechar el poder de cómputo a hiperescala para construir soluciones de IA más potentes y personalizadas.
Disponibilidad general y futuras expansiones
Actualmente, RHEL AI está disponible de forma general a través del Portal del Cliente de Red Hat para implementaciones locales (on-premise) y para su uso en AWS e IBM Cloud bajo el modelo de 'traiga su propia suscripción' (BYOS). Red Hat también planea expandir esta disponibilidad a Azure y Google Cloud durante el cuarto trimestre de 2024, con la expectativa de ofrecer RHEL AI como servicio en IBM Cloud antes de finalizar el año.
Esta expansión permitirá a más empresas acceder a una plataforma robusta de IA generativa, optimizada para los entornos empresariales modernos, y respaldada por el soporte de una comunidad activa y comprometida de código abierto.
En esta nota