Lo que [no] sabemos de Fermi

Hoy NVIDIA hizo una suerte de lanzamiento en papel de Fermi, la nueva arquitectura de NVIDIA que pretende -nuevamente- barrer el piso con AMD/ATI.

Fermi tiene varias características innovadoras que iremos mencionado una a una, pero para partir nos concentraremos en los 3.000 millones de transistores que esta tiene, casi un 50% más de los que el RV870 trae. Este enfoque se debe a que NVIDIA es el único gran actor en la industria del hardware que no tiene un CPU propio como AMD e Intel, por lo que han tenido que poner un esfuerzo enorme en promover el uso de tecnologías como CUDA, PhysX y últimamente OpenCL.

Los cuadros verdes que vemos en la imagen son los 512 CUDA Cores, más del doble que los 240 incluidos en el GT200. Cada uno de los «DRAM I/F» son las interfaces de memoria, de 64 bits cada una. Esto nos da un ancho de memoria total de 384 bits, o sea, un 50% más que el RV870. La caché L2 que atravieza al núcleo es de 768KB y el Giga Thread será el encargado de aumentar el rendimiento de manera exponencial

(c) Alienbabeltech.com

El problema de tener tantos transistores extra y un tamaño significativamente más grande que el de tu competencia es que el precio no puede ser el mismo, por lo que en vez de apuntar Fermi 100% hacia los gamers sin presupuesto como ATI, prefirieron dedicar todos sus esfuerzos a demostrar cómo utilizando la GPU para cálculos generales puedes obtener maravillas. Si bien podemos quejarnos y decir que NVIDIA tomó este enfoque solamente porque no tienen CPUs, la resolución de los monitores lleva estancada durante varios años y recién se está volviendo común jugar a 1440×900 o 1680×1050 luego de  años jugando a 1280×1024 y la industria de los videojuegos solo nos trae mugrosos ports en DX9 de sus juegos con tan solo un puñado de compañías que realmente aprovechan los recursos existentes en el PC.

No entraremos  a fondo hablando de cada uno de los detalles y cómo el ajustar en 0.5° a la izquierda la silla de la señora juanita en la línea de ensamblaje durante el equinoxio de verano, hace que Fermi sea lo más grande  desde la aparición de Redtube, pero daremos una pincelada a las características más importantes del GT300.

Ya les mencionamos los 3.000 millones de transistores que Fermi (o Furby si es que eres del lado rojo) trae junto a los 512 cores de éste. Si bien no son 1600 como en el RV870, éstos pueden procesar instrucciones más complejas y siempre son 512, mientras que los del lado rojo pueden hacer uso de los 1600 stream processors siempre y cuando las instrucciones sean simples. Estos 512 núcleos están divididos en 16 grupos con una caché dinámica de 64KB que puede dividirse en una combinación 48+16 para caché L1 y Datos respectivamente o vice versa, dependiendo del uso que queramos darle a la GPU.

Estos racimos de núcleos necesitarán compartir datos entre ellos, por lo que es ahí donde la caché L2 común de 768KB entra en juego. Estos cambios de caché se deben a que sin importar la cantidad de threads en paralelo que la GPU pueda procesar el limitante siempre es la memoria, por lo que NVIDIA extrañamente disminuyó el número de threads soportados a 24.576 desde los 30.720 del GT200 en vez de colocar un asterisco y letra chica diciendo que puede procesar hasta un millón de instrucciones en paralelo si todas estas son null.

Obviamente las instrucciones no crecen en los árboles y alguien tiene que decirle a la GPU que se mueva, función exclusiva del nuevo NVIDIA Giga Thread. Este scheduler (o planificador) se encarga de ordenar y repartir las instrucciones en paralelo enviando más de una a la vez por ciclo, ya sea juntando varias pequeñas o separando una grande para que ésta pueda hacer uso del poder de cómputo que se perdería en el proceso.

¿Y dónde se guardan estas instrucciones? En la memoria pues. Como Fermi está apuntado al mercado profesional y gente que quiera usar la GPU para mucho más que jugar el núcleo debe cumplir con estándares de la industria como IEEE754 y dar la flexibilidad de programar en diversos lenguajes como C for CUDA, OpenCL, DirectCompute y demases. Las consecuencias de que un 0 se vuelva un 1 de manera inesperada podría hacer que el colisionador de hadrones trate de dividir por 0 y el universo explote, por lo que NVIDIA no sólo soporta corrección de error en las memorias GDDR5 como el RV870, sino que en todo tipo de registros como la caché y demases, volviéndolos la GPU más segura -en el papel- a la fecha.

Junto a ser flexible en software y soportar corrección de error en las memorias, Fermi tiene un diseño casi escalable que permite hasta 6GB de RAM GDDR5 por tarjeta, lo que de seguro traerá a más de un modelito TESLA con el precio de un auto compacto. Al menos el precio elevado no le dará excusas a NVIDIA para seguir utilizando memorias GDDR3 en sus tarjetas y finalmente estarán a la altura de la industria en lo que a nuevas tecnologías se refiere.

Este lanzamiento (si es que se le puede considerar como tal) es medio extraño. Recién están armando las primeras tarjetas para probar y las frecuencias de núcleo, shaders o memorias no han sido fijadas. Ya vimos un par de fotos de la tarjeta y podemos hacernos una idea de lo que nos espera como un precio si o si superior al del RV870por la cantidad de mejoras incluidas, mejoras que si bien suenan muy lindas en papel no son una mejora enorme para los gamers que constituyen la mayor parte del mercado de NVIDIA.

Por otro lado está el tema de los refritos de NVIDIA. Aún cuando salga el GT300 a tiempo no habrán partes para el mercado mainstream, por lo que tendremos que esperar hasta mediados de 2010 para tener una GTS350 «Fermi» o recibir de brazos abiertos a la «nueva» GTX275 GTS350 que sólo le traerá mala publicidad a NVIDIA.

De cualquier forma el único beneficiado en la guerra de GPUs es el consumidor, por lo que el único consejo que tenemos para ustedes es empezar a juntar el vuelto del pan y las monedas que encuentran entre los cojines del sillón porque es más que seguro que las ofertas para esta temporada navideña estarán imperdibles.

Rumor: Posibles Especificaciones

Como en esta vida todo se rumorea, obviamente una nueva tarjeta de video no puede quedar fuera, menos si estamos hablando de la nueva tarjeta tope de serie del gigante verde. Estas serían las posibles especificaciones de la futura tarjeta de video basada en Fermi (GT300).

Core Clock: 750+ Mhz
CUDA Cores Clock: 1500+ Mhz
Memory Clock: 1200Mhz (4800Mhz)
Memory Interface: 384bits
CUDA Cores: 512
Memory: 1.5GB GDDR5

Esas son las especificaciones que creemos poseerá la nueva tarjeta de video basada en el GT300 de NVIDIA. Cuando se sepan de forma oficial contrastaremos con estas que especulamos y veremos que tan cerca estuvimos.

Fuentes:

[imagen principal]

Related posts

NVIDIA RTX Remix se actualiza a DLSS 3.5 con reconstrucción de rayos

Los desafíos de la computación cuántica y su impacto en Chile

Computación e Inteligencia Artificial: La revolución tecnológica que transformará América Latina

28 Comment

Vulturize 2 octubre, 2009 - 14:35

Ha Prefiero Ati!!! Nvidia sigue estancado en sis Gddr 3!! nada que hacer!!

Black_Armor 1 octubre, 2009 - 13:58

El gt300 tiene estas nuevas caracteristicas: Consta de 1MB de cache de primer nivel repartida en grupos de 16KB y 768KB de cache de nivel 2 unificada. El chip puede ejecutar nativamente código en C, C++, Fortran, DirectCompute, DirectX 11, OpenGL y OpenCL y puede realizar cálculos en coma flotante en doble precisión.

En cuanto a que Nvidia no saca tarjetas para rango medio, medio alto si lo hace pero despues de lanzar la gama alta.. Siempre ha sido asi.

Desde que saco la Serie GeForce siempre saca a la venta la gama alta y despues de un tiempo saca la gama media alta y baja.

Recuerdo que salio la 6800ultra, gt, gs, despues saco la 6600gt, gs asi ha hecho con la serie 7, 8, 9, 200, hara lo mismo con la 300.

En cuanto al consumo espero que sea menor a la serie 200 y no sea peor.
Al igual que con la generacion de calor, y que tenga un nuevo sistema de refrigeracion.

En cuanto al precio va hacer superior al de ati no cabe duda, habra que esperar que los reviews

MELKOR 1 octubre, 2009 - 12:34

la verdad que si es asi ya me estoy muriendo por ver un par de reviews!! … parece que pinta linda lo nuevo de Nvidia … auqnue ya salieron con el tema del precio …. ja ..

Nadia 1 octubre, 2009 - 13:34

See un buen review de ambos bandos (ati/nvidia) y la batalla de precios jojo

kuriru 1 octubre, 2009 - 08:03

me tinka q sera mas accesible q la serie gt200 ya q se ve super optimisada por el tamaño q tiene y con respecto al wateje opino lo mismo ya q entre mas consume mas calor produce y mas disipacion rekiere y en las fotos se ve flakita ablando de precios nvidia siempre a sido cara pero bajando sus precios nose ci algien rekuerda cuando salio la serie 8000 esa wea si ke era exclullente

giova 1 octubre, 2009 - 01:40

Pos haber que tan buenas salen, en el papel parece que no sera tan enfocada en el area gammers y se dara una mejor utilidad a otras areas, aca es un arma de dos filas, y visto personas que dicen que les importa un pepino CUDA y OpenCL etc y GPGPU, lo que quieren es jugar de lo lindo. Y me temo que este es el grueso de los compradores de este tipo de hard.

SlayerS 1 octubre, 2009 - 01:27

ojala no salgan tan caras XD 3.000 millones de transistores woooowwwwwwww la cago

Tomk 1 octubre, 2009 - 01:20

Estas tarjetas son principalmente para motivar el uso de CUDA para reemplazar grandes clusters. Al menos muchas de sus mejoras tecnológicas apuntan a facilitar la programación en CUDA (soporte para c++ y un plug-in pa debuggear en visual studio) y la confiabilidad de los cálculos (soporte para ECC).

Dadas esas características pareciera que Nvidia sigue tratando de que CUDA se imponga y que esa sea una fuente importante de ingresos para ellos. Personalmente encuentro que los avances van por el buen camino, pero debería usarse OpenCL en vez de CUDA… (aunque debería tener experiencia con ambos para opinar mejor).

David 1 octubre, 2009 - 01:13

me tinka q va ser exesivamente cara

rolox-z 1 octubre, 2009 - 00:52

la gran duda que me asalta es: cuando Nvidia lanzara toda una familia de tarjetas de video, porque desde la serie 8 que no lansan una linea nueva de vga, solo se han concentrado en hacer refritos para el segmento entry level y middle range 8600–>9500, 8500–>9400, 8800–>9800 y asi podria dar toda una lista, a diferencia de ATi que lansa familias nuevas, con nuevos core y rendimiento mejorado en cada uno de sus lansamientos. Sera que Nvidia no se interesa en recibir morlacos en masa por una vga gtx310 para el pueblo y solo quiere su buena tajada por una gtx360/380???

Dr. T 1 octubre, 2009 - 00:46

3.000 millones de transistores Woooo

a juntar plata en el xanxito nomas se vienen buenos tiempos

Fenrir 30 septiembre, 2009 - 23:22

cuando se publique los nuevas reviews de esta grafica se vera su potencial que en teoria pinta muy bien pero esta muy clarito no es para le gamer presupuesto medio, medio alto, osea nada de innovacion, tecnologicamente pueda ser pero ya tamos cansados de ver fuerza bruta sin que se optimice el consumo de las graficas y especial Nvidia y este sera otro vicho que chupa varios Watts para rendir un poco mas lo nuevo sera que usen DDR5 si eso es avance no se pero ya debrian sacar una grafica que cuando lo prueben con Crisys de mi… no le afecte en nada a los frames x el momento mas de lo mismo nada nuevo y ojala saquen otro game xke crisys y toy arto de ese game que para su se hizo conocido x que no puedes jugarlo como COD4 no se si sera x optimizacion o porque las graficas de COD son mas simples.

Ajes 30 septiembre, 2009 - 22:21

mmm… «No money, no fun» dicen por ahi XD

-Nico- 1 octubre, 2009 - 10:00

x2 hace rato que envidia no saca targetas buenas para el pueblo como las viejas 7600gt o la 8600gt que eran y son muy buenas.

felip0 30 septiembre, 2009 - 21:07

M Son buenas Tarjetas, pero cero innovaron.
no me gusta nvidia

AndresCL 30 septiembre, 2009 - 20:34

Bueno y al final tiene 384 bits de ancho o 512?

Mario Rübke 30 septiembre, 2009 - 20:35

384bits y 512 CUDA Cores (Shader Processors)

totopesce 30 septiembre, 2009 - 20:30

es un portaviones esa tarjeta, casi qe nesesitai un gabinete nuevo pa ponerla XD

Mario Rübke 30 septiembre, 2009 - 20:34

es igual de grande que la GTX 260/280/285/295 y las HD4870X2 y HD5870 =P

jemb 30 septiembre, 2009 - 20:13

esas GT300 son «VIP» no para pendejos (costosisimas)

lo mas seguro es que la diferencia en rendimiento sea de un 20% con respecto a las hd5800 y la diferencia de precios sean de un 50% :s

bueno, bien por nvidia, igual voy por mi 5850 yeah!

Wallol 30 septiembre, 2009 - 20:03

pfff ojala se tiren una tarjeta decente y economica. justo ahora q pensaba cambiarme al lado verde…..

Javi2k9 30 septiembre, 2009 - 20:02

Que llegue luego nomas, para que la competencia baje los precios =)

Cachop 30 septiembre, 2009 - 19:55

Muy muy interesante.

Marco Antonio Choque U. 30 septiembre, 2009 - 19:53

bestia!! en cuanto a consumo, esperemos que no consuma tanto como la gtx29x

Meh 30 septiembre, 2009 - 19:48

Otra noticia escrita por la manga de ATI fanboys de MadboxPC. Lame…

Mario Rübke 30 septiembre, 2009 - 19:50

ATI Fanboys??
una noticia 100% hablando de nvidia escrita por ATI Fanboys??

WTF!!

Amdon 1 octubre, 2009 - 12:20

????? leiste mal compa.

uchiha demoledor 30 septiembre, 2009 - 19:36

3.000 millones de transistores para dar power a esa bestia vas a tener que instalar una central nuclear al lado de tu casa.

espero que esos 3.000 millones de transistores salgan tan caros

Add Comment