En el marco del HPE Discover 2023, Hewlett Packard Enterprise (HPE) anunció la expansión de su portafolio HPE GreenLake para ofrecer modelos de lenguaje grandes (LLM) para acceder a un servicio de nube de supercomputación bajo demanda y multiusuario.
Con el lanzamiento de HPE GreenLake para Modelos de Lenguaje Grandes (LLM), HPE ofrece entrenar, perfeccionar e implementar en privado una IA a gran escala utilizando una plataforma de supercomputación sostenible que combina el software de IA y las supercomputadoras de HPE, incluyendo Frontier.
HPE GreenLake para LLM es el primero de una serie de aplicaciones de IA de la industria y de dominio específico que HPE planea lanzar en el futuro. Estas aplicaciones incluirán soporte para modelado climático, salud y ciencia de la vida, servicios financieros, fabricación y transporte.
A diferencia de las ofertas de nube para propósitos generales que operan en múltiples cargas de trabajo en paralelo, HPE GreenLake para LLM opera en una arquitectura nativa de IA diseñada exclusivamente para ejecutar una sola carga de trabajo de simulación y entrenamiento de IA de gran escala a una máxima capacidad informática. La oferta soportará los trabajos de IA y HPC en cientos o miles de CPU o GPU al mismo tiempo. Esta capacidad es considerablemente más eficaz, confiable y eficiente para entrenar la IA y desarrollar modelos más precisos, lo que permitirá a las empresas acelerar su proceso de POC a producción para resolver los problemas más rápido.
Disponibilidad
HPE se encuentra aceptando pedidos adicionales de HPE GreenLake para LMM y espera que haya disponibilidad adicional a finales del año natural 2023, empezando en Norteamérica y con disponibilidad en Europa a principios del próximo año.