En marzo de 2022 NVIDIA presentaba su GPU H100 con arquitectura Hopper, sucesora de Ampere, un monstruo de la computación con 80.000 millones de transistores. Contaba con el llamado Transformer Engine, «diseñado para acelerar el entrenamiento de modelos de inteligencia artificial», pero por entonces muchos no podíamos imaginar lo importante que era eso. Luego apareció ChatGPT y nos dimos cuenta de cómo este chip era clave para entrenar esos modelos. NVIDIA se ha hecho de oro con estos lanzamientos, y aunque en mayo presentó sus superchips GH200, ahora acaba de presentar otra vez estos chips… o casi.
De los primeros Superchip GH200… En mayo de 2023 llegaban los bestiales superchip GH200 de NVIDIA. Combinaban la CPU Grace (72 núcleos ARM y hasta 480 GB de memoria LPDDR5X) con la GPU Hopper H100 (528 núcleos Tensor y 80 GB de memoria HBM3).
… a los nuevas Superchip GH200. Ahora NVIDIA ha presentado una revisión de estos «Superchip GH200» que cuentan con exactamente la misma CPU —que está en un segundo plano en este ámbito— pero que incluyen una mejora importante para la GPU: la memoria ya no es HBM3, sino HBM3e.
Una pequeña gran diferencia. No parece que esa diferencia pudiera ser tan importante, pero lo es. Esta nueva versión de la memoria tiene mayor ancho de banda (de 4 TB/s a 5 TB/s), pero sobre todo tiene mayor capacidad gracias a sus chips de 24 GB. Eso permite que NVIDIA amplíe la memoria GPU de los 96 a los 144 GB, un 50% más que supone una diferencia brutal para aplicaciones de inteligencia artificial.
Configuración dual. Este Superchip permite además funcionar en configuración dual, lo que supondría contar con 282 GB de memoria HBM3e. Según NVIDIA, eso permite contar con una capacidad de memoria que es 3,5 veces superior a la que ofrecía su GH200 original, y hasta 3 veces más el ancho de banda (10 TB/s al combinar los dos). NVIDIA saca músculo.
El supercomputador también se actualiza. El supercomputador DGX GH200 que ya había sido presentado en mayo también se beneficia de estas mejoras porque puede integrar estos nuevos Superchips en lugar de los originales con memoria HBM3 convencional.
Aún tardaremos en verlos. Aunque la compañía quería aprovechar la feria SIGGRAPH de estos días para anunciar esta nueva versión de sus superchips, los nuevos GH200 no estarán disponibles hasta el segundo trimestre de 2024.
Aún hay más. Este anuncio ha sido especialmente destacado, pero durante su charla inaugural en el SIGGRAPH la compañía ha mostrado otros productos y servicios totalmente enfocados al segmento de la IA generativa. Así, destaca su nuevo apoyo al prometedor estándar OpenUSD de realidad aumentada, o el caso de éxito de Writer, una plataforma de redacción de textos mediante IA que ya están usando empresas como L’Oreal, Uber o Deloitte.