Image default
EmpresasLanzamientosNoticiasProcesadores

AMD lanza sus procesadores EPYC «Genoa» para Servidores, basados en ZEN4

En un evento especial titulado «together we advance_data centers», AMD lanzó formalmente sus procesadores de servidor EPYC «Genoa» de cuarta generación basados en la microarquitectura «Zen 4».

Estos procesadores estrenan una plataforma completamente nueva, con conectividad de E/S moderna que incluye memoria PCI-Express Gen 5, CXL y DDR5. Los procesadores vienen en recuentos de núcleos de CPU de hasta 96 núcleos/192 subprocesos. Hay hasta 18 SKU de procesadores, que se diferencian no solo en el número de núcleos de la CPU, sino también en la forma en que los núcleos se distribuyen entre los hasta 12 chiplets «Zen 4» (CCD).

Cada chiplet cuenta con hasta 8 núcleos de CPU «Zen 4», según el modelo; hasta 32 MB de caché L3 y se basa en el proceso EUV de 5 nm en TSMC. Los CCD se comunican con el die de E/S de servidor centralizado (sIOD), que se basa en el proceso de 6 nm.

Los procesadores que AMD está lanzando hoy son la serie EPYC «Genoa«, dirigida a servidores de uso general, aunque también se pueden implementar en grandes centros de datos en la nube. Para proveedores de nube a gran escala como AWS, Azure y Google Cloud, AMD está preparando una clase diferente de procesador, con el nombre en código «Bergamo«, que planea lanzar más adelante. En 2023, la compañía lanzará la línea de procesadores «Genoa-X» para aplicaciones de computación técnica y HPC, que se benefician de grandes cachés en el chip, ya que cuentan con la tecnología 3D Vertical Cache. También habrá «Siena«, una clase de procesadores EPYC dirigidos a los mercados de telecomunicaciones y computación de borde, que podrían ver una integración de más Xilinx IP.

El procesador EPYC «Genoa», como mencionamos, viene en recuentos de núcleos de hasta 96 núcleos/192 hilos, dominando los recuentos de 40 núcleos/80 hilos del Xeon Scalable «Ice Lake-SP» de tercera generación. y también manteniéndose por delante de los conteos de 60 núcleos/120 subprocesos del próximo Xeon Scalable «Sapphire Rapids».

El nuevo procesador AMD también ve una mejora significativa de sus capacidades de E/S, con una interfaz de memoria DDR5 de 12 canales (24 subcanales) y una gigantesca interfaz PCI-Express Gen 5 de 160 carriles (es decir, diez ranuras Gen 5 x16 funcionando a todo el ancho de banda). y soporte de plataforma para enlaces CXL y 2P xGMI restando algunos de esos carriles multipropósito.

El nuevo chip de E/S del servidor (sIOD) de 6 nm tiene un recuento de transistores significativamente mayor que el de 12 nm que alimenta los procesadores EPYC de generaciones anteriores. El alto número de transistores se debe a dos grandes componentes SERDES (serializador-deserializador) configurables de 80 carriles, que pueden fabricarse para apagar carriles PCIe Gen 5, carriles CXL 1.1, puertos SATA de 6 Gbps o incluso Infinity Fabric entre sockets. Habilitación de plataformas 2P.

El procesador admite hasta 64 carriles CXL 1.1 que se pueden usar para conectarse a dispositivos de agrupación de memoria en red. Infinity Fabric de tercera generación conecta los diversos componentes dentro del sIOD, el sIOD a los doce CCD «Zen 4» a través de IFOP y como una interconexión entre sockets.

El procesador cuenta con una interfaz de memoria de 12 canales (24 subcanales de 40 bits), que admite hasta 6 TB de memoria ECC DDR5-4800 por socket. El procesador seguro de última generación proporciona SEV-SNP (paginación anidada segura) y AES-256-XTS para una mayor cantidad de máquinas virtuales seguras.

Cada uno de los CPU Complex Die (CCD) de 5 nm es físicamente idéntico a los que se encuentran en los procesadores de escritorio «Raphael» de la serie Ryzen 7000. Incluye 8 núcleos de CPU «Zen 4», cada uno con 1 MB de caché L2 dedicado y 32 MB de caché L3 compartidos entre los 8 núcleos. Cada núcleo «Zen 4» proporciona un aumento del rendimiento generacional del 14 % en comparación con «Zen 3», con una velocidad de reloj constante. Gran parte de esta mejora proviene de las actualizaciones del front-end y la unidad de carga/almacenamiento del núcleo, mientras que el predictor de sucursales, el caché L2 más grande y el motor de ejecución hacen contribuciones más pequeñas.

El cambio generacional más grande es el ISA, que ve la introducción del soporte para el conjunto de instrucciones AVX-512, VNNI y bfloat16. Los nuevos conjuntos de instrucciones deberían acelerar las cargas de trabajo matemáticas del AVX-512, así como acelerar el rendimiento con las aplicaciones de IA. AMD dice que su implementación AVX-512 es más eficiente en comparación con la de Intel, ya que utiliza la FPU de 256 bits de ancho existente con doble bombeo para permitir operaciones de 512 bits.

AMD está lanzando un total de 18 SKUs hoy, todos destinados a la plataforma Socket SP5. Sigue la nomenclatura como se describe en la siguiente diapositiva. EPYC es la marca de nivel superior, «9» es la serie de productos. El siguiente dígito indica el recuento de núcleos, con «0» que indica 8 núcleos, «1» que indica 16, «2» que indica 24, «3» que indica 32, «4» que indica 48, «5» que indica 64 y «6» siendo 84-96. El siguiente dígito indica el rendimiento en una escala del 1 al 10. El último dígito es en realidad un carácter, que podría ser «P» o «F», donde P denota SKU con capacidad 2P y «F» denota SKU especiales que se enfocan en menos núcleos por CCD para mejorar el rendimiento por núcleo.

El TDP configurable de todas las SKU tiene una potencia nominal de hasta 400 W, lo que parece alto, pero se debe tener en cuenta el número de núcleos de la CPU y el impacto que tiene en la cantidad de servidores blade por rack.

Esta es una de las razones por las que AMD no escala más allá de 2 sockets por servidor. La densidad central de la empresa se traduce en un 67 % menos de servidores y un 52 % menos de energía.

En términos de rendimiento, AMD solo tiene los procesadores «Ice Lake-SP» escalables Xeon de tercera generación de Intel para comparar, ya que «Sapphire Rapids» aún no se ha lanzado. Con el recuento de núcleos igualado, se muestra que el EPYC 9174F de 16 núcleos es un 47 % más rápido que el Xeon Gold 6346; el EPYC 9374F de 32 núcleos es un 55 % más rápido que el Xeon Platinum 8362; y el EPYC 9474F de 48 núcleos es un 51 % más rápido que el Xeon Platinum 8380 de 40 núcleos. El mismo grupo de prueba también ve un liderazgo de rendimiento de punto flotante del 58-96 % a favor de AMD.

Posts relacionados

AMD Anuncia FSR 3.1 durante la GDC24

Mario Rübke

AMD ROCm 6.0 amplía el soporte para el desarrollo de ML a otras GPU Radeon y anuncia soporte para ONNX Runtime

Mario Rübke

Review AMD Ryzen 7 8700G y Ryzen 5 8600G

Mario Rübke