La última versión de Red Hat OpenShift AI acelera la escalabilidad y flexibilidad de la IA – Comunicados de prensa

La última versión de Red Hat OpenShift AI acelera la escalabilidad y flexibilidad de la IA – Comunicados de prensa
La última versión de Red Hat OpenShift AI acelera la escalabilidad y flexibilidad de la IA – Comunicados de prensa
-

El siguiente texto proviene de un comunicado de prensa y de ninguna manera refleja la opinión de la redacción.

Red Hat, líder mundial en soluciones de código abierto, anuncia el lanzamiento de Red Hat OpenShift AI 2.15. Esta plataforma AI/ML, basada en Red Hat OpenShift, ofrece a las empresas una solución potente y escalable para desarrollar e implementar aplicaciones de inteligencia artificial en un entorno de nube híbrida. Con esta nueva versión, las empresas se benefician de una mayor flexibilidad, herramientas avanzadas de personalización y monitoreo, y seguridad y coherencia mejoradas en nubes públicas, centros de datos y entornos de borde.

Según IDC, más del 40% del gasto en TI entre las empresas Forbes Global 2000 se dedicará a iniciativas relacionadas con la IA. IDC también predice que el uso de IA generativa y tecnologías de automatización podría generar un billón de dólares en ganancias de productividad para 2026. Red Hat anticipa que estas inversiones requieren una plataforma sólida capaz de manejar el ciclo de vida de los modelos de IA/ML e implementar aplicaciones de IA generativa junto con las cargas de trabajo existentes. en la nube híbrida.

Características principales de OpenShift AI 2.15

Guardar modelos : gestión centralizada para compartir, rastrear y controlar versiones de modelos de IA generativos, con soporte de registros múltiples. Red Hat entregó este proyecto a la comunidad de Kubeflow.
Detección de deriva de datos : Monitoreo continuo de los datos de entrada para identificar discrepancias entre los datos de entrenamiento y los datos de producción, mejorando la confiabilidad y precisión del modelo.
Detección de sesgos : herramientas para monitorear la equidad y transparencia de los modelos, esenciales para generar confianza en la IA, de la comunidad TrustyAI.
Optimización con LoRA : uso de adaptadores de bajo rango (LoRA) para un ajuste eficiente de modelos de lenguaje (LLM), reduciendo costos y requisitos de recursos.
Compatibilidad con NVIDIA NIM : Acelera la implementación de aplicaciones de IA generativa a través de microservicios accesibles e integrados en la plataforma NVIDIA AI Enterprise.
Soporte de GPU AMD : Nuevas opciones para desarrollar, entrenar y ajustar modelos con GPU AMD, ideales para optimizar el rendimiento para cargas informáticas intensivas.

Implementación de modelo mejorada

Red Hat OpenShift AI 2.15 mejora la implementación de modelos generativos de IA con nuevas características como el tiempo de ejecución vLLM para KServe y soporte para KServe ModelCars. Estas adiciones permiten el uso de repositorios compatibles con Open Container Initiative (OCI) para almacenar y administrar fácilmente modelos en contenedores. Además, las opciones de ruta pública y privada para los puntos finales de KServe mejoran la seguridad al permitir apuntar a puntos finales internos.

Fortalecimiento del entrenamiento y la experimentación en IA.

Esta actualización de OpenShift AI mejora los procesos de ciencia de datos y el seguimiento de experimentos con avances inteligentes. El ajuste de hiperparámetros a través de Ray Tune aumenta la precisión al tiempo que acelera el entrenamiento de modelos predictivos y generativos. Agregar imágenes base en contenedores a los clústeres de Ray facilita la distribución de tareas de capacitación y optimización entre múltiples cargas de trabajo dentro del clúster. Esto no sólo reduce el tiempo de procesamiento sino que también maximiza la utilización de los nodos disponibles.

Disponibilidad

Red Hat OpenShift AI 2.15 está disponible desde mediados de noviembre de 2024.

-

PREV Para el Black Friday, “haz hueco al deporte” en tu agenda con Decathlon y consigue una recompensa
NEXT El análisis de revisión de Intel Arrow Lake muestra que las CPU Core Ultra 200S son campeones de eficiencia y fracasos en los juegos