Evento NVIDIA en Brasil

Luego de haber arrivado el día anterior a Sao Paulo (Brasil) nos dispusimos todos los invitados a dirigirnos al lugar donde NVIDIA realizaría su Conferencia de Prensa y Presentación de Productos.

Una vez llegados al lugar fuimos recibidos por estas bellas mujeres, en donde debíamos registrarnos para poder acceder a la sala de conferencia.

Ya registrados pasamos al salón a tomar ubicación para posteriormente presenciar la presentación. Cuando todos estuvimos listos y dispuestos se dió comienzo a la presentación.

Hasta Steven Koch, General Manager para Latino America estuvo presente en este evento.

Jose Pedro Ranalli, Director de Marketing de América Latina fué el encargado de Iniciar la Presentación y Darnos la Bienvenida.

En las siguientes páginas la presentación en sí.

¿Qué es NVIDIA y Cuál es Su Futuro?



Mr. John Lonergan, Vicepresidente de WorldWide Channel Operations fué el encargado de abrir las presentaciones, su charla se basó en dar a conocer a la prensa asistente Quién es NVIDIA y para donde va.

Nos comentó cuantos trabajadores posee NVIDIA (alrededor de 3800 en todo el mundo), cuanto invierte en desarrollo (aprox 1 Billón de Dolares). Además en su slide menciona que NVIDIA es el único y más grande fabricante de GPU en el Mundo.

Luego nos comenzó a hablar sobre los campos donde NVIDIA ah trabajado y se pretende enfocar, tales como Handhelds GPU, Core Logics (MCP), GPU, PES (Professional and Embedded Solutions) y Consumer Electronic.

Una de las cosas que llamó la atención de lo que NVIDIA está realizando en Brasil es la alianza con distribuidores locales, con el fin de producir placas madres y tarjetas graficas. Además de incorporar cerca de 500 LanHouses (una especie de Cyber Café para Gamers) a su plan de NVIDIA Games Center Alliance.

Finalizada la presentacion de John Lonergan, hace su ingreso el Señor Richard Cameron, Territory Manager de Brasil, quien nos habla acerca del programa para End Users de NVIDIA.

Para los Usuarios Finales tendremos a las tiendas miembro del NVIDIA PartnerForce Member, las cuales deben ser aprovadas y autorizadas por NVIDIA para ser Distribuidores o Partner Board oficiales. Cuyo beneficio aparte de ser un canal directo entre NVIDIA y el público recibirán Kits de Merchandising, Logo Distintivo y Aparición en la página de NVIDIA, entre otras cosas.

Nuevos Productos de NVIDIA

Hacía bastante tiempo que NVIDIA no realizaba un anuncio especial. O al menos, un salto generacional como fue el de las series GeForce FX a GeForce 6, o de éstas a GeForce 7. En verdad, el cambio que está proponiendo NVIDIA hoy es tan grande como el que observamos hace cinco años entre las GeForce 2 y las GeForce 3, pioneras en el procesamiento de shaders programables. El G80 es el primer procesador gráfico para computadoras de escritorio que cumple con la arquitectura de shaders unificados de DirectX 10, y en esta ocasión se presentan dos tarjetas basadas en él, la GeForce 8800 GTX (tope de gama, U$S 600 en EE.UU.) y GeForce 8800 GTS (U$S 450), ambas muy superiores a todo lo conocido en la actualidad.

Pero no sólo se presentan estas revolucionarias placas, sino también una nueva serie de chipsets, tanto para procesadores Intel como AMD, que es la familia nForce 600. Empezaremos hablando de estos nuevos chipsets, para luego comenzar con el plato fuerte.


Nick Stam es el encargado de hacer la pesentación de los nuevos productos de NVIDIA.
 

NFORCE 600I, EL REEMPLAZO QUE HACÍA FALTA


Los usuarios de microprocesadores AMD ya saben que uno de los mejores exponentes en el mundo de los chipsets es NVIDIA, que ha ganado varias batallas a empresas como VIA Technologies para convertirse en el más popular en esta plataforma, aún con la relativamente reciente amenaza por parte de ATI. Sin embargo, en el ámbito de Intel la cosa es bien distinta: desde hace casi dos años, cuando la compañía lanzó sus primeros nForce 4 Intel Edition, no ha sabido cómo hacerle frente a Intel, que siempre ha liderado en los dos aspectos primordiales para los entusiastas como nosotros: rendimiento y capacidades de overclocking. Sin ir más lejos, en nuestra edición anterior comparamos al nForce 570 SLI con el P965 Express de Intel y llegamos a la conclusión de que, si bien son muy parejos en el rendimiento general, en el mundo del overclocking Intel lidera ampliamente. Quizás para algunos usuarios los 320 MHz que suele alcanzar el C19 (northbridge de la serie nForce 4 y nForce 5 Intel Edition) sea más que suficiente, pero aquellos que utilizan chips como el reciente Core 2 Duo saben que es una verdadera lástima correrlo con un FSB inferior a 400 MHz, dado el increíble potencial de overclock que tiene este chip.

Por otro lado, hay otra amenaza grande para NVIDIA, y es que hoy en día la plataforma de gaming predilecta es Core 2, y si los usuarios exigentes escogen chipets de Intel es muy probable que prefieran adquirir una tarjeta de ATI para luego adosarle otra y hacer un sistema CrossFire, ya que el SLI de NVIDIA es únicamente soportado (al menos, de manera oficial) por chipsets de este fabricante.

Atendiendo a todo esto, NVIDIA ha lanzado una solución que promete ser la panacea para los fanáticos de la PC, y a decir verdad en las pruebas preliminares se han visto reportes bastante alentadores de ella. Se trata de la nueva familia nForce 600i, compuesta inicialmente por el tope de gama nForce 680i SLI, un chipset basado en el nuevo northbridge C55 y el southbridge MCP55PXE, al cual se comunica mediante un enlace HyperTransport de 8 GB/s. Esta generosa velocidad de interconexión tiene que ver con que hay un total de 46 líneas PCI Express, de las cuales 28 están en el southbridge, pensadas para distribuirse en un slot PCIe x16, un PCIe x8 (mecánicamente compatible con placas x16) y seis PCIe x1 o adaptadores integrados en motherboards. Como se pueden imaginar, la idea es poder conectar ni más ni menos que tres tarjetas de video en simultáneo, una de las cuales (se presume) serviría para el procesamiento de la física, tema del que tanto se ha hablado últimamente.

Otro aspecto interesante del chipset, volviendo al tema del overclocking, es que está diseñado para soportar en forma nativa un FSB de 1333 MHz (333 QDR), que es el que utilizarán los próximos procesadores de la familia Core 2. Además, como tiene un generador de clock propio, puede hacer funcionar a la memoria de forma asincrónica, de modo que su frecuencia es totalmente independiente a la del FSB. En este aspecto brinda soporte oficial a DDR2 800 y permite en forma absolutamente nominal trabajar con memorias de hasta 1200 MHz.


El resto de las características se pueden observar en el esquema y en la tabla anterior. Como se ve, el chipset promete mucho y trata de reivindicar a la empresa en el campo de los procesadores Intel.

 

EL CONCEPTO DUAL TAMBIÉN SE APLICA A LOS CHIPSETS: NFORCE 680A (4×4)

Como hemos comentado en líneas anteriores, NVIDIA está más que consolidada en el mundo de los chipsets para procesadores AMD, actualmente con sus líneas nForce 570 y 590 (además del económico GeForce 6100/6150).


Sin embargo, no quiso dejar vacío este segmento de novedades: ha mostrado al nForce 680a, su primer chipset compatible con la recién presentada plataforma AMD Quad FX, en la que hay dos zócalos Socket L1 (1207) en los que se pueden conectar sendos procesadores con módulos de memoria dedicados para cada uno. Esta es la solución más sencilla que encontró AMD para poder ofrecer a sus usuarios sistemas de cuatro núcleos, y a decir verdad, NVIDIA también hizo las cosas más que fáciles: simplemente, colocó dos chipsets nForce 570 SLI en el mismo motherboard. Recordemos que, ya que el controlador de memoria está integrado en los procesadores, el nForce 570 integra ambos puentes en un único chip, así que este nuevo chipset sólo tiene dos chips. Por cierto, resulta curioso comentar que el southbridge MCP55PXE usado en el nForce 680i es en realidad un nForce 570 SLI renombrado. Eso se llama aprovechar recursos de la producción 🙂.


La conexión la podemos ver en el esquema correspondiente, donde observamos que, naturalmente, el enlace con los procesadores consiste en dos HT «x16», o sea, los tradicionales de 1 GHz de 16 bits por sentido.

Sinceramente, resulta asombroso pensar en las posibilidades de expansión de los motherboards basados en el nForce 680a: cuatro interfaces de red Gigabit Ethernet, 12 puertos S-ATA, 20 puertos USB y hasta cuatro slots PCIe x16 por mother resultan números súper asombrosos que, claro, están destinados a workstations y usuarios irritantemente refinados.

EL MOMENTO QUE TODOS ESTABAN ESPERANDO: GEFORCE 8800


Geforce 8800GTX

Ahora sí, vamos a hablar acerca del monstruo por el que fuimos a Brasil (además de la guaraná y el pan de queso, claro). Como comentamos antes, es el primer chip para PCs de escritorio que soporta completamente la nueva arquitectura de DirectX 10, que en cierta forma le ofrece ventajas también para el código de DirectX 9 (que comprende al de la gran mayoría de los juegos actuales). Los objetivos principales de DX 10 consisten en tratar de liberar aún más a la CPU de toda tarea relacionada con el procesamiento de gráficos, empezando por la carga que genera la propia «traducción» que existe entre DirectX y el driver de la placa de video para intercomunicarse con el hardware. Sin embargo, puntualmente el cambio fundamental está en los shaders, esos pequeños programitas de los que venimos hablando desde hace muchos años, que cada vez van creciendo más y más. En primer lugar, se trata de definir un juego de instrucciones idéntico tanto para la información de vértice como la de píxel, de modo que se puedan unificar estas unidades de procesamiento. Por otro lado, también se agrega un nuevo concepto en el mundo de los shaders, que es la posibilidad de crear efectos geométricos dentro de cada uno de estos procesadores unificados.

Así es que la premisa básica de DirectX 10 es contener una serie de procesadores paralelos de propósito general que puedan procesar píxeles, vértices, o bien aplicar estos nuevos efectos de geometría. Y realmente suena lógico este cambio, dado que hay ciertas ocasiones en las que las unidades de vertex shader están ociosas, y otras tantas en las que son las de píxel las que se podrían aprovechar para optimizar la performance, especialmente, teniendo en cuenta que usualmente no hay más de 8 unidades de vértice en cada GPU.

 

ARQUITECTURA BÁSICA

Pese a que, conforme la computación avanza, los procesadores se van haciendo cada vez más complejos y difíciles de entender en cuanto a su constitución física y electrónica, desde un punto de vista básico es muy sencillo comprender el funcionamiento del G80, corazón de las tarjetas GeForce 8800. En la entrada de la pipeline del procesador se convierten las instrucciones a un formato de punto flotante de 32 bits virtualmente compatible con cualquier clase de operaciones matemáticas, lo cual desde ya nos informa que este procesador podría realizar otra clase de procesamiento además de la de gráficos (sí, ya sabemos qué se les viene a la mente: ¡física!).


Luego se observa una cola de threads de píxel, vértice y geometría comandados por un procesador de threads que posee la lógica necesaria para distribuir eficientemente la carga de trabajo entre los procesadores de propósito general que posee el chip. Y hablando de ellos, denominados stream processors, se encuentran distribuidos en bloques de 16, acompañados por cuatro unidades de manejo de textura (TMUs) y una caché L1 a la que pueden acceder únicamente los procesadores de cada bloque. Pero hay algo que es compartido por todos los bloques de procesadores, que es la memoria caché L2 y los registros de propósito general, de modo que su intercomunicación es sumamente eficiente y permite ejecutar operaciones multithreading sin ninguna clase de inconvenientes.

Cada uno de estos procesadores puede ejecutar dos instrucciones de escalares en simultáneo, lo cual suena a poco debido a que ATI, en su R580+, tiene procesadores de píxel shader que no sólo son capaces de procesar dos instrucciones escalares sino también dos vectoriales. Aún así, hay que tener en cuenta que la cantidad de unidades en paralelo de este nuevo chip es muy superior y que esta simplicidad puede ser más eficiente si el multithreading se hace cada vez más común entre los programadores.
 

COVERAGE SAMPLING ANTI-ALIASING


El motor de rasterización del G80 forma parte (junto con las unidades de textura) de lo que NVIDIA llama Lumenex Engine. Como gran parte del chip, está divido en grupos de operadores que pueden procesar 4 píxeles cada uno. Por supuesto, teniendo en cuenta que es prioridad de esta clase de procesadores proveer una buena calidad de imagen, el motor ROP soporta todos los tipos de Anti-Aliasing que conocemos (Multisampling, Super-Sampling y Transparency AA) y unos nuevos modos basados en una forma de sampling más efectiva, al menos desde el punto de vista de la memoria y la performance, que es el coverage sampling. Se trata básicamente de tratar de ahorrar memoria disminuyendo la cantidad de muestras de color, que son las que más memoria (y ancho de banda) ocupan y que menos impactan en el ojo humano. Según NVIDIA, la calidad del modo AA 16x mediante Coverage Sampling es prácticamente la misma que la del AA 16x mediante multisampling, el cual degrada terriblemente la performance por su alt
o consumo de memoria. El nuevo AA 16x disminuiría el rendimiento en aproximadamente un 20% respecto al AA 4x.

Con respecto al otro filtrado típico, que es el Anisotropic Filtering, NVIDIA ha mostrado grandes avances con un nuevo algoritmo que hace que la calidad gráfica no dependa del ángulo de inclinación de la textura.

Por cierto, fue tarea de NVIDIA tratar de remarcarnos en la presentación que el Anti-Aliasing soporta texturas en FP32, por lo cual es posible aplicar HDR (High Dynamic Range) en simultáneo con el AA, detalle que tanto hemos criticado de la serie GeForce 7.

 

CONTROLADOR DE MEMORIA

Como dijimos antes, existe una serie de registros de propósito general y memoria caché L2 que es compartida por todos los bloques de procesadores. Ahora bien, esta memoria también está dividida en bloques, cada uno de los cuales está conectado a un canal del Frame Buffer (memoria principal), que es de 64 bits. ¿Para qué tanta subdivisión? Más que nada, para poder crear un sinnúmero de productos basados en el mismo procesador pero con uno o más bloques deshabilitados, lo cual no le sirve a la empresa sólo para crear productos sin invertir dinero en diseño y producción, sino que también es bueno para «reciclar» chips que hayan salido con algún que otro transistor defectuoso. Pensemos que es muy probable que entre los cientos de millones de transistores que posee cada chip, al menos un puñado falle.

Para finalizar con este apartado, podemos decir que el nuevo controlador de memoria soporta tanto GDDR3 como GDDR4, aunque esta última no se está usando actualmente debido a su baja relación costo/beneficio (al menos, para esta arquitectura).

 

ESPECIFICACIONES TÉCNICAS

Ahora sí, vayamos a los números. La lujosa GeForce 8800 GTX consta de 16 grupos de stream processors, de modo que tiene ni más ni menos que 128 procesadores de propósito general, con 32 TMUs y un poder de procesamiento total de 520 GFLOPS (más del doble que lo ofrecido por el R580+ de ATI). Por cierto, esto es llevado a cabo gracias a que los procesadores trabajan a 1,35 GHz (el resto de la GPU opera a 575 MHz). En cuanto a la memoria RAM, suena extraño decir que posee 640 MB GDDR3 a 1,8 GHz con una interfaz de 384 bits, aunque se hace lógico si pensamos que son seis de los grupos descriptos anteriormente de 64 bits.


GeForce 8800GTS

El modelo más pequeño (GeForce 8800GTS) es similar pero tiene desactivados dos grupos de procesadores y uno de memoria, totalizando 96 procesadores y 512 MB de memoria con una interfaz de 320 bits. Las frecuencias son de 500 MHz para la GPU (1,2 GHz para los stream processors) y 1,6 GHz para la memoria, por lo cual el rendimiento estaría más o menos en un 20% por debajo de su hermano mayor (al igual que su precio).

Sí, lo sabemos, un hueso muy duro de roer para ATI, que próximamente estará lanzando el R600 y promete reivindicarse frente al público y responderle a este gigante que prácticamente ofrece el doble de rendimiento que su chip tope de gama.

 

PALABRAS FINALES

Con una gran cantidad de novedades, NVIDIA despide un preocupante año 2006 a lo grande, demostrando que está muy firme como diseñador independiente de procesadores gráficos y chipsets. Si bien en este último ámbito no está del todo bien posicionado, especialmente por la (obviamente) poderosa fuerza que está ofreciendo ATI al trabajar junto a AMD, aún sigue siendo el preferido por muchos y posiblemente lo sea por mucho tiempo más.

Con respecto al mundo de los gráficos, no hay nada que decir: desde hace tiempo que está a la vanguardia de la tecnología gráfica, y si bien ATI ha liderado grandes batallas, en este preciso instante no cabe duda de que NVIDIA es el líder en la gama alta. Y, según dicen, el que pega primero, pega dos veces.


Artículos Relacionados:

AMD 4×4 A Fondo
ASUS L1N64-SLI WS (4×4 Ready)
RoadMap 4×4 de AMD (Athlon FX-74 y más)
NVIDIA NFORCE 600 series!
G80 es la Última GPU Guigante de NVIDIA
G80 al descubierto
Specs G80 GTX/GTS
Charla nVIDIA G80 Santiago/Chile

Saludos
Ariel Gentile, Revista Power Users

Related posts

NVIDIA RTX Remix se actualiza a DLSS 3.5 con reconstrucción de rayos

Los desafíos de la computación cuántica y su impacto en Chile

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial