AMD anuncia Heterogeneous Uniform Memory Access (hUMA).

Los avances en cómputo paralelo y heterogéneo han hecho que las arquitecturas de cómputo vengan evolucionando desde hace varios años, con una integración de componentes cada vez mayor, con el énfasis en las capacidades de cómputo, simplificación o unificación de diseño, reducción de latencias, acceso etc. En este contexto AMD hace otro apronte más con Heterogeneous Uniform Memory Access (hUMA) en virtud de optimizar el proceso y acceso de datos a la memoria de sus arquitecturas de CPU y GPU.

Esta tecnología permitirá a AMD impulsar su iniciativa llamada Heterogeneous Systems Architecture (HSA) y construir desde los avances que ya tiene en el cálculo de propósito general mediante GPU o GPGPU a avanzar aun más en el cómputo paralelo, implementando una “coherencia” en el  acceso a datos a memoria que deben ser procesados por la CPU/GPU y otros componentes de cálculo de un procesador, APU o SoC.

En términos técnicos, con hUMA, tanto la CPU como la GPU comparten un espacio comun de memoria, permitiendo a la GPU acceder directamente a las direcciones de memoria de la CPU, eliminando con esto las latencias de los sistemas tradicionales. Esto permite a la GPU leer y escribir datos que la CPU está también procesando mediante un lugar en común. Es más, tomando en cuenta que hUMA es una sistema de cache coherente, la CPU y GPU siempre verán los datos en la memoria RAM, lo que significa que si la GPU cambia algo allí (en la RAM), la CPU lo sabrá y viceversa.

La arquitectura de memoria hUMA permite también administrar más inteligentemente los recursos de proceso, enviando las tareas al mejor lugar de procesamiento (GPU o CPU) según el tipo de tarea de que se trate. Por ejemplo aplicaciones que demanden un gran poder de cómputo paralelo (virtualizacion por ejemplo) serán enviados a la GPU, mientras que tareas más livianas (cómputo serial) serán enviadas a la CPU.

A continuación una ilustración que gráfica más claramente las distintas implementaciones en el acceso a memoria como UMA, NUMA y hUMA.

AMD hace años atrás con sus primeros procesadores AMD Athlon 64 ya implementó un sistema de arquitectura UMA (Uniform Memory Access) integrando el controlador de memoria en el propio procesador lo que le dio una gran ventaja frente a los antiguos Pentium 4, que utilizaban un controlador externo administrado por el chipset, posteriormente con la llegada de las APU AMD implemento NUMA (Non-Uniform Memory Access) donde tanto la GPU como la GPU tienen acceso a direcciones de memoria por separado, sin “coherencia” entre ambos, nada nuevo de todos modos.

Ahora con hUMA el asunto cambia ya que ambos componentes tendrán acceso a un lugar común con plena coherencia en los accesos que realiza tanto la CPU como la GPU, sin la necesidad de externalizar datos para su procesamiento, es decir, con sistemas como UMA, la información debe ser copiada desde la memoria de la CPU a la memoria de la GPU, antes de que esta última pueda hacer algo con dicha información, originando latencias que en ambientes críticos de procesamiento de datos e información (como servidores y entornos virtualizados) por ejemplo, puede repercutir negativamente en el rendimiento.

AMD en una presentación nos indica 10 puntos respecto a las ventajas de esta implementación, que permitirá en resumidas cuentas un cambio mucho más rápido entre el cómputo realizado por la CPU y realizado por la GPU.

Tal como lo indica en esta presentación el tener hardware totalmente coherente, tiene varias ventajas como hacer la tarea mas fácil para los programadores, no se necesitan API especiales, se pueden mover algoritmos multi-núcleos de CPU a la GPU sin mayores complicaciones, entre otras como ser una implementación óptima para computación heterogénea en las APU y SoC de AMD.

AMD implementará esta tecnología con la segunda mitad de este 2013 con la introducción de sus APU Kaveri, las primeras que implementarán hUMA  y los primeros productos que se basarán en la arquitectura Steamroller, lo que coincide con la información que dimos previamente.

La aplicación de hUMA abarca un vasto rango de mercado, entre el mercado de escritorio, móvil, servidores, industria, computación de alto rendimiento, etc, impulsado también con el apoyo de todas las empresas que forman parte de la HSA Fundation, que lógicamente también podrán acceder a esta tecnología para sus respectivos productos ya que una de las características de HSA es su carácter abierto.

 

[nggallery id=1077]

[AMD]

Related posts

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

Computación e Inteligencia Artificial: La revolución tecnológica que transformará América Latina

Samsung lanzó oficialmente la serie Galaxy Book4 en Chile

11 Comment

Camarada Stalin 1 mayo, 2013 - 01:12

Hum es como la memoria de alta velocidada compartida del PS4, exelente.

Camarada Stalin 30 abril, 2013 - 19:07

Siempre me dije qu eso de tener varias RAMs dentro del sistema era una perdida de rendimiento.

Ar. 30 abril, 2013 - 13:42

Parece un avance importante, hay que ver en las pruebas reales que impacto tiene.

Perdonden pero ya estoy descreido bastante de AMD, con los últimos traspies que tuvo perdió bastante credibilidad a mi criterio.

Polaco 30 abril, 2013 - 15:55

como cual? 🙂 el ultimo tiempo ah tenido varios WIN por decirlo asi , no me vengas con que piensas en bulldozer ya que esta arto añejo ese y es el ultimo que recuerdo 🙂

Adrian Pla 30 abril, 2013 - 20:22

@Ar. se entiende sobre la credibilidad de AMD, pero eso sucedió en la epoca donde los disturbios adentro de la empresa era comun a diario… ahora tiene a un ceo muy solido, hizo traer a nuevas personas dentro de la compañia, y que son expertos en lo suyo, tiene una roadmap claro en sus proyectos, tiene mas socios que antes, en fin, creo que amd esta levantando, antes decian que lentamente, pero este ultimo año 2012 levanto mucho mas rapido… igual debe seguir firme y apostando por las nuevas tecnologias, eso es lo que hace que una empresa gane confianza…

esteban 30 abril, 2013 - 21:24

Ya estas de fanboy jajaja la mayoria ya no cree en nvidia y tu si cres, ve los fracasos que tubo y tu si le das credibilidad a sus fraudes.

Cole Phelps 30 abril, 2013 - 13:09

Sencillamente genial. Veamos cuando Intl «innova» con algo así.

polo 30 abril, 2013 - 21:34

claro Intel no innova nunca por eso AMD tiene los micros mas poderosos y eficientes…..

DSS 30 abril, 2013 - 22:11

claro e intel mejora un 5% aproximadamente en cada nueva arquitectura, como innova! uff

abx 1 mayo, 2013 - 11:01

intel tiene los mas poderosos porque sencillamente es un mounstruo todopoderoso y economico al lado de amd y aun asi amd le da la pelea.

que haria amd si tuviera el poder economico de intel, da para pensar.

HxxJuan 3 mayo, 2013 - 16:53

@abx:

Haria lo mismo que todas las empresas que tienen capitales enormes; tratar de monopolizar todo lo posible…

Add Comment