La nueva memoria ultrarrápida potencia los chips de Intel para centros de datos
Aunque los productos de Intel se centran principalmente en los procesadores, o cerebros, que hacen funcionar los ordenadores, la memoria del sistema (es decir, la DRAM) es un componente crítico para el rendimiento. Esto es especialmente cierto en los servidores, donde la multiplicación de los núcleos de procesamiento ha superado el aumento del ancho de banda de la memoria (en otras palabras, el ancho de banda de memoria disponible por núcleo ha disminuido). Hasta ahora, este desajuste podía crear un cuello de botella en las tareas informáticas más exigentes, como la modelización meteorológica, la dinámica de fluidos computacional y ciertos tipos de inteligencia artificial.
Tras varios años de desarrollo con socios del sector, los ingenieros de Intel han encontrado la forma de abrir ese cuello de botella, creando una solución novedosa que ha dado lugar a la memoria de sistema más rápida de la historia y que está llamada a convertirse en un nuevo estándar abierto del sector. Los procesadores Intel Xeon 6 para centros de datos, presentados recientemente, son los primeros en beneficiarse de esta nueva memoria, denominada MRDIMM, para obtener un mayor rendimiento de la forma más plug-and-play imaginable.
Bhanu Jaiswal, responsable de producto Xeon en el grupo Intel Data Center and AI (DCAI), explica que «un porcentaje significativo de las cargas de trabajo de computación de alto rendimiento están limitadas por el ancho de banda de la memoria», el tipo que más se beneficiará de los MRDIMM. Suena casi demasiado bueno para ser verdad: he aquí la historia del módulo de memoria DDR5 Multiplexed Rank Dual Inline Memory Module, o MRDIMM para la eficiencia narrativa.
Llevando el paralelismo a la memoria del sistema, con amigos
Resulta que los módulos de memoria más comunes utilizados en los centros de datos, conocidos como RDIMM, disponen de recursos paralelos, al igual que los procesadores modernos. Sólo que no se utilizan de esa forma.
«La mayoría de los módulos DIMM tienen dos rangos para rendimiento y capacidad», dice George Vergis, ingeniero principal de búsqueda de rutas de memoria en DCAI. «Es el punto dulce».
Se puede pensar en los rangos como, bueno, bancos: un conjunto de chips de memoria de un módulo pertenecería a uno y el resto al otro rango. Con los RDIMM, los datos pueden almacenarse y accederse en varios rangos de forma independiente, pero no simultánea.
Ante esta situación, recuerda Vergis, «nos preguntamos: 'Un momento. Tenemos recursos paralelos que no se utilizan. ¿Por qué no podemos juntarlos?». La idea que siguió Vergis fue colocar un pequeño chip de interfaz -un multiplexor o «mux»- en el módulo DRAM. Permite que los datos fluyan por ambos rangos de memoria en la misma unidad de tiempo.
El búfer mux consolida la carga eléctrica de cada MRDIMM, lo que permite que la interfaz funcione a mayor velocidad que los RDIMM. Y ahora que se puede acceder a ambos rangos de memoria en paralelo, su ancho de banda se ha duplicado.
El resultado es la memoria de sistema más rápida jamás creada, con un salto que normalmente llevaría varias generaciones de tecnologías de memoria alcanzar (en este caso, el ancho de banda máximo aumenta casi un 40%, de 6.400 megatransferencias por segundo (MT/s) a 8.800 MT/s).
El mismo módulo de memoria estándar, pero más rápido
Llegados a este punto, es posible que te hagas tu propia pregunta: ¿Intel va a volver al negocio de la memoria? No. Aunque Intel comenzó como una empresa de memorias e inventó tecnologías como EPROM y DRAM, la empresa ha abandonado sus diversos negocios de productos de memoria a lo largo de su historia (algunos de ellos de forma bastante sonada).
Pero Intel nunca ha cesado en su empeño de «levantar todos los barcos» para que los distintos componentes informáticos sean interoperables y ofrezcan un mayor rendimiento. Vergis representa a Intel en el consejo de JEDEC, que establece normas abiertas para la industria microelectrónica, sobre todo para la memoria. Vergis ganó un premio JEDEC en 2018 por su trabajo en el estándar DDR5, y ahora mismo está dedicando tiempo a DDR6. (JEDEC también honró al CEO de Intel, Pat Gelsinger, este año por una carrera como «firme defensor de los estándares abiertos, como lo demuestra el liderazgo histórico de Intel en el desarrollo de estándares»).
Vergis y sus cohortes comenzaron este trabajo en 2018 y probaron el concepto con prototipos en 2021. Intel se asoció con el ecosistema de memoria para construir los primeros componentes y donó las especificaciones a JEDEC como un nuevo estándar abierto a finales de 2022.
Lo que destaca del MRDIMM es su facilidad de uso. Emplea el mismo conector y factor de forma que un RDIMM normal (incluso los pequeños chips mux encajan en los espacios previamente vacíos del módulo), por lo que no requiere cambios en la placa base.
Los módulos MRDIMM también incorporan las mismas funciones de corrección de errores y fiabilidad, disponibilidad y capacidad de servicio (RAS) que los módulos RDIMM. La integridad de los datos se mantiene independientemente de cómo se multiplexen las distintas peticiones en el búfer de datos, explica Vergis.
Todo esto significa que los clientes de centros de datos pueden elegir módulos MRDIMM cuando encargan un nuevo servidor, o más tarde pueden sacar ese servidor del bastidor y cambiar los RDIMM por nuevos MRDIMM. No es necesario cambiar ni una sola línea de código para disfrutar del nuevo rendimiento.
Lo que se necesita es una CPU que pueda trabajar con MRDIMMs, y el primero disponible es el procesador Intel Xeon 6 con núcleos Performance, cuyo nombre en clave es Granite Rapids, que salió al mercado este año.
Recientes pruebas independientes compararon dos sistemas Xeon 6 idénticos, uno con módulos MRDIMM y otro con módulos RDIMM. El sistema con MRDIMMs completó los trabajos hasta un 33% más rápido.
Jaiswal afirma que «la mejora en el ancho de banda que ofrece MRDIMM es muy aplicable a los pequeños modelos de lenguaje y a los tipos tradicionales de aprendizaje profundo y sistemas de recomendación de cargas de trabajo de IA que pueden ejecutarse fácilmente en Xeon y lograr un buen aumento del rendimiento con MRDIMM».
Los principales proveedores de memoria han introducido MRDIMM, y se espera que otros fabricantes de memoria lancen más. Los laboratorios de computación de alto rendimiento -como el Instituto Nacional de Ciencia y Tecnología Cuántica y el Instituto Nacional de Ciencia de Fusión, entre otros- están adoptando activamente Xeon 6 con núcleos P gracias a los MRDIMM, con el apoyo de fabricantes de equipos originales como NEC.
«Intel lleva definitivamente la delantera», señala Jaiswal, “respaldada por un sólido ecosistema de fabricantes de equipos originales y proveedores de memoria”.
Comments