Review AMD/ATI Radeon HD3870 X2

Se acuerdan de abril del 2007, cuando AMD sacó la HD2900XT? Se acuerdan que había un modelo que se suponía iba a ser el XTX, pero nunca llegó a un escaparate? Desde ese entonces, AMD ha sufrido el escarnio de los más entusiastas, los «insensatos» que lo único que buscan es la tarjeta más poderosa del universo.

La estrategia de lograr un producto barato y con una buena relación precio rendimiento no siempre tuvo una buena llegada con los jugadores ni pudo ser efectiva ante la ofensiva de precios que emprendió NVIDIA, ya con varios meses de penetración de sus productos en el saco. Aún así, fue coherente, y cuando lanzó su refresco de R600, el núcleo RV670, mantuvo su mismo esquema de precios y rendimiento transformándose en una muy buena opción para los que compran con la calculadora en la mano.

Aún así, estaban en deuda con los entusiastas fanáticos que seguían pidiendo una tarjeta ultramegapoderosa que aniquilara en los gráficos a su competencia. Puede sonar descabellado hacer marketing para esa gente que no entiende argumentos técnicos ni económicos, pero finalmente es cosa de leer foros y ver que opina la gente en cada noticia. Sin exagerar, muchos a cada noticia que partiera con «AMD…» pedían harakiris, pronosticaban quiebras y vaticinaban monopolios diabólicos.

Hasta que AMD cedió. Dejando de lado su estrategia del último año de «no ofrecer un producto tope de línea», es que nos presenta ahora a la AMD ATI Radeon HD3870X2, su tarjeta más cara hasta la fecha (MSRP USD449) pero que aún así es mucho más barata que las opciones pelolais (Chilenismo: Gama Alta) de NVIDIA. Ofreciendo un rendimiento fuera de serie, que barrería con la GeForce 8800 Ultra anticipándose a la próxima jugada de NVIDIA en el high end, también dual GPU, es que nos enviaron esta muestra para que la analizaramos, desmenuzáramos, desarmáramos y para que aquí les contaramos la «firme» (Chilenismo: la «verdad»).


Entérense de los detalles de este lanzamiento en las próximas páginas, aquí en MADBOXPC. Aunque antes de continuar, los invitamos a hacer una nostálgica y retrospectiva mirada a los inicios de las tarjetas gráficas duales en la siguiente reseña al respecto (Cogan sus pañuelos).

Reseña: Tarjetas de video “Dos en Uno”.

La tendencia de la computación dual y los cómputos paralelos no es algo nuevo, esta tecnología que actualmente vemos más extendida y desarrollada en el ámbito de los procesadores, ya sea a través de múltiples núcleos funcionando en un solo procesador (dual-quad core) o múltiples procesadores multi-núcleo funcionando en una sola placa madre multisocket, ya tuvo sus incursiones en el ambito del procesamiento gráficos hace más de una década, demostrando que la idea de dos procesadores gráficos funcionando en paralelo estuvo en mente de los fabricantes desde otrora y que ha sido heredada y perfeccionada hasta nuestros días, desde luego el rendimiento alcanzado otrora nada tiene que ver con las exorbitantes cifras que puede alcanzar el hardware actual tanto en consumo como en rendimiento, esto como una consecuencia lógica de la evolución tecnológica.


Para este contexto histórico mencionaremos a vuelo de pájaro algunos datos que seguramente a muchos les traerá bastante nostalgia y una cuota de melancolía a sus corazones ya adultos pero que conservan la nostalgia de la infancia delante de un PC disfrutando de algun Monkey Island, Tyrian, Alone in The Dark, Doom, Wolfestein etc.


Uno de los princiales culpables del desarrollo 3D en los juegos y el primero en ofrecer soluciones gráficas duales, fue la desaparecida 3DFX Interactive o 3DFX simplemente, compañia fundada en 1994 cuyo rubro fue la fabricación y diseño de procesadores gráficos 3D y tarjetas gráficas para PC, su alcance llegaba desde chip  y placas de video, hasta las maquinas de videojuego (arcade) que incorporaban chips 3dfx como la Borne Arcade Voodoo, podemos decir entonces que esta empresa simplemente marco toda una época en el procesamiento 3D.

 

 

3DFX dominó el mercado ya entrado los 90, principalmente entre el 97-98, y tuvo sus apuestas en tarjetas gráficas duales con las Voodoo 2 1000 (90/90Mhz core y memoria) y Voodoo 5 5000, Voodoo 5 5500 y Voodoo 5 6000 series (166/166Mhz core y memoria), reliquias que revolucionaron y marcaron la tendencia en el desarrollo 3D de la epoca, que hasta entonces solo disfrutaba de las planimétricas graficas 2D. Estas tarjetas fueron las primeras en incorporar 2, e incluso 4 chips gráficos en una sola tarjeta y que marco la pauta para lo que podemos encontrar actualmente. 3DFX por cierto introdujo por primera vez el concepto de SLI que en ese entonces significaba «Scan-Line Interleave» y no «Scalable Link Interface» como la rebautizo NVIDIA años atrás para su tecnología Multi-GPU  SLI, pero que se basan en el mismo concepto de unir dos tarjetas graficas para al funcionamiento en conjunto.

 

Finalmente 3DFX como sus tecnologías desarrolladas (Gráficas duales, SLI, Transform and Lighting – T&L-, decodificación MPEG) fueron absorbidas por NVIDIA Corporation, que en el 2000 termino por adquirir a 3DFX, eliminando de paso un serio contendor en el mercado de tarjetas gráficas, ya me pregunto que seria del mercado de tarjetas gráficas actualmente si 3DFX no hubiera sido absorbida por NVIDIA.

 

3DFX Voodoo series

 

Por esa época, ATI (Array Technology Inc) que se dedicaba casi exclusivamente a las tarjetas gráficas, también siguió el concepto iniciado por 3DFX, uno de los primeros exponentes de la armada roja fue la mítica ATI Rage Fury MAXX, una tarjeta que incluía dos núcleos gráficos ATI RAGE 128 PRO (143Mhz) en un solo PCB con 64MB de memoria (155Mhz) y que ya incluía el método de rendereo Alternate Frame Rendering (AFR), que posteriormente fue introducido en la terna de métodos de rendereo cuando ATI anuncio su tecnología multi-GPU ATI Crossfire, como lo son los modos AFR, Scissor Mode y Supertile Mode. La ATI Rage Fury MAXX se lanzo más o menos en el año 1999, como una respuesta a la Geforce 256 de la época, aunque a diferencia de esta ultima la tarjeta dual de ATI carecía de la técnica T&L (propia de NVIDIA tras haber absorvido a 3dfx), aun así gracias a sus dos núcleos gráficos obtenía un rendimiento bastante aceptables en exigencias 3D, pero no suficientemente superlativo a lo que ofrecía la Geforce 256 de un solo núcleo gráfico.

 

ATI Rage Fury MAXX

 

XGI Technology (eXtreme Graphics Inc) fue otra de las compañías que se dedicaba al mercado de tarjetas gráficas, esta empresa nació de la unión de la división gráfica de SiS (Silicon Integrated Systems) y la división gráfica de Trident (Trident Graphic), las oficinas centrales de XGI estaban situadas en Shangai-China. XGI Technology cuando estuvo en ejercicio también ofreció tarjetas gráficas duales, desde que fue una compañía independiente en el 2003, un ejemplo de esto fueron sus XGI Volari DUO V8 Ultra y XGI Volari DUO V5 ultra, basadas en dos procesadores gráficos XG40 y XG41 respectivamente (130nm), uno maestro y otro esclavo a 350Mhz c/u y que tenían un sistema de memoria (450Mhz) con 128MB dedicados para cada núcleo gráfico (256MB en total), dentro de su arquitectura denominada BitFluent Architecture. (¿Alguien las recuerda? Quizás muy pocos) estas tarjetas fueron anunciadas  16 de septiembre del 2003, pero que por diversos problemas (Drivers y rendimiento) tampoco lograron consolidarse en el mercado, que ya se veía dominado por dos gigantes como ATI y NVIDIA que son los únicos jugadores que actualmente monopolizan el mercado de las tarjetas gráficas.


 

XGI Volari Duo V8 Ultra

XGI Volari Duo V5 Ultra


La historia de XGI Technolgy, como compañía independiente llega a su fin, cuando en el año 2006 fuera adquirida por ATI, según informamos en dicha ocasión aquí en MadboxPC.


Desde aquellos tiempos, los fabricantes esporádicamente en cada generación de tarjetas gráficas han presentado sus soluciones duales, aunque no son productos de producción masiva y se basan principalmente en incluir dos núcleos gráficos de la generación en curso en una sola tarjeta que en algunos casos puede ser un solo PCB o en dos PCB, quizás algunos de ustedes recuerden una las primeras incursiones de NVIDIA en el ultimo tiempo, para no extenderme demasiado solo las nombraremos, así hemos tenido: La NVIDIA Geforce 6800 GT Dual, basada en dos núcleos NV45 y que vio como uno de los escasos exponentes el gigantesco modelo de ASUS, EN6800GT Dual, que fue el primer intento de NVIDIA de incorporar la tecnología SLI en una sola tarjeta junto a la GeForce 6600 GT Dual (basada en dos nucleos NV43), posteriormente también tuvimos la GeForce 7800GT Dual (basado en dos núcleos G70) y la GeForce 7950 GX2 revisada tiempo atrás, siendo un modelo bien particular ya que, a diferencia de los modelos anteriores, se conformaba
por dos PCB con dos núcleos G71 cada uno (cuatro en total), una especie de QuadSLI en una sola tarjeta, aunque en la práctica eran dos unidas por un puente de interconexión. Pero para dentro de poco NVIDIA ya tiene preparado su proximo asalto Dual al mercado High End con la NVIDIA GeForce 8800 GX2.

ASUS GeForce 6800 GT Dual


GIGABYTE GeForce 6600 GT Dual


ASUS GeForce 7800GT Dual

NVIDIA GeForce 7950 GX2


Proxima NVIDIA Geforce 9800GX2





A diferencia de NVIDIA que sus soluciones duales siempre fueron productos High End (con excepción de la 6600 GT Dual), ATI/AMD a través principalmente de sus socios ensambladores o AIB (Sapphire, GeCube, HIS, MSI entre otros) se ha enfocado mas en productos Duales para el mercado mainstream, así lo han confirmado sus lanzamientos como la Radeon X1600 Dual Gemini Edition (Basada en dos núcleos RV530), posteriormente la Radeon X1950 PRO Dual (Basada en dos núcleos RV570) que pudimos revisar en un review en vivo desde la MaximoLAN de argentina y el ultimo exponente de AMD fue la Radeon HD 2600 XT Dual Gemini (Basada en dos núcleos RV630), la primera solución dual de AMD en soportar DirectX 10,  todas ellas soluciones mainstream que rememoramos en las siguientes imágenes.



Gecube Dual Radeon X1600 Gemini

 

Sapphire X1950 PRO Dual

 

Sapphire HD 2600 XT Dual


Radeon HD3870X2


Todos los modelos anteriores han sido por iniciativa mas de los emsambladores de ATI que por cuenta propia, pero ahora ahora AMD/ATI hacen su debut en grande y de manera oficial con una gráfica dual gracias a la Radeon HD 3870 X2 (RV670 x2), que viene a tomar el tope de rendimiento y se presenta como la primera solución dual por parte de AMD/ATI para el segmento High End. La Radeon HD3870 X2 es la que cierra esta nostálgica reseña y que procedemos a revisar en el presente Review.

Inspección Visual


Aunque a primera vista pareciera que es la tarjeta de video más grande jamás vista, la HD3870X2 es exactamente del mismo largo que una NVIDIA GeForce 8800GTX o una NVIDIA GeForce 8800Ultra. Su largo es de exactamente 29 cms, lo que obviamente no es lo que podríamos entender por «corto» (sobrepasa el ancho de una tarjeta madre formato ATX, por lo que tendremos que estar atentos al espacio disponible dentro del gabinete si es que queremos tener una de estas tarjetas), pero es a lo que tenemos que empezar a acostumbrarnos cuando queramos hablar de VGAs High End.


Por detrás una placa metálica (que ya nos encargaremos de desmontar) tiene como función mantener en su lugar el disipador, a la vez que actúa disipando el calor de algunos componentes por sí misma.  También tenemos a la vista los soportes para ambos núcleos RV670, que afirman el disipador y se encargan de que haga contacto parejo sobre los núcleos. Por el perfil, el panorama es el esperable: dos salidas DVI (las cuales podemos utilizar como salida HDMI con el adaptador DVI-HDMI que incluye el fabricante), el conector S-Video, y las ranuras donde saldrá el aire que ha retirado el calor del disipador. Como se puede apreciar, la solución de disipación ocupará dos slots de expansión en nuestro gabinete.

Con las Manos en la Masa

Una vez que agarramos el destornillador, era cosa de que tuviéramos un poquito de paciencia para retirar 16 tornillos y que luego tuviéramos el PCB de la tarjeta al descubierto ante nosotros, mostrándonos sus secretos.  Una de las cosas que de inmediato llama la atención es el hecho de que cerca de cada núcleo hay solamente 4 chips de memoria (en vez de los 8 usuales).


Además de eso, vemos que el par de conectores CrossfireX (presente en las tarjetas ATI desde la aparición de la Radeon X1950 Pro, que desterró el dongle satánico que había que instalar entre tarjeta y tarjeta) en este producto se cambia por sólo un conector, el cual hasta el momento no tiene utilidad, ya que la HD3870X2 no es configurable en un modo CrossfireX de dos VGA y cuatro GPU. Ya veremos si a futuro se logran programar drivers adecuados para sacarle partido a la monstruosa granja de procesamiento que serían dos HD3870X2.

Lo que también se observa es que los conectores de energía PCI-Express mantienen el formato de 8 pines + 6 pines introducido en la Radeon HD 2900XT. Eso habla de que la tarjeta se las trae en cuanto a consumo; ya hablaremos de este tema con mayor detalle en la sección correspondiente.


En esta foto, lo único que podría ser relevante para el geek promedio es que aquí estaban los ocho chips de memoria que echábamos de menos en el frente del PCB. Los ingenieros de diseño de AMD colocaron estos chips en este lugar para evitar tener que hacer crecer el PCB hacia arriba o hacia los lados, manteniendo el mismo «estándar» de tamaño de las VGA High End de NVIDIA. El resto, muchos componentes muy chiquititos, de esos que uno pasa a llevar con el destornillador e inmediatamente nos transforman la tarjeta en un llavero gigante.


El siempre necesario close up al protagonista de este análisis: RV680, consistente en un conjunto de dos RV670 con esteroides (están clockeados a más M3g4hurtz que el RV670 que vimos en la Radeon HD 3870), y el chip puente PLX que hace el «milagro» de la unión, también presente en otros modelos Dual GPU de ATI, como la Sapphire X1950 Pro Dual que revisamos en vivo en MaximoLAN 2007, en Argentina. El puente PLX une los dos núcleos mediantes 32 vías PCI-Express (16 lineas en cada ruta, pero ojo, vías PCI-Express 1.0) , entregando el ancho de banda suficiente para una buena comunicación entre ambos.


Una pregunta que muchos entusiastas se harán al ver esta foto, es porque AMD no utilizó memorias GDDR4 de muy bajo nanosegundaje para este producto. Como pueden ver, las memorias son de 1.0ns, con un límite teórico de 2000Mhz. La explicación que tenemos a esta pregunta está en el precio sugerido para la Radeon HD3870X2, el cual habría sido mucho más alto usando memorias con mayor headroom… y otro precio significa otro análisis. Hace tiempo que AMD esquiva lanzar productos demasiado «caros», tratando de empatizar con el consumidor por el lado del bolsillo (cosa que en estas latitudes se agradece, ciertamente).


Otro detalle que se observa es la casi inexistencia de capacitores en el PCB, esto debido al uso de fase de poder digital (en el caso específico de este producto DOS fases de poder, ya que tanto la administración de energía como el acceso a memorias son independientes en cada GPU; no olvidemos que esta no es una tarjeta «dual core», sino que es un par de GPUs en Crossfire, pero en un solo PCB)

Revisemos ahora la solución de enfriamiento con la que AMD pretende mantener a raya el calor que genera R680

Solución de Enfriamiento: Temperatura y Nivel Sonoro


Al desarmar el disipador, vemos que los componentes encargados de retirar calor de los núcleos son un par de grandes bloques de metal, que hacen directamente contacto con los núcleos RV670. Uno de los bloques es de aluminio y el otro de cobre; la diferencia tiene dos posibles explicaciones: una es que ya que Crossfire nunca divide la carga exactamente a la mitad entre los dos GPU, probablemente haya uno que se caliente más, y éste requiera de un bloque de cobre. La otra explicación es que debido a que el aire de la turbina pasa primero por un disipador y luego por el otro, se eligieron dos materiales diferentes para no perjudicar tanto al segundo disipador con el aire precalentado por el primer disipador.

Como decíamos, las aletillas de los bloques son enfriadas por el aire que entra al interior de la turbina y que es lanzado por esta a través de ellas hasta salir por las ranuras ubicadas en el extremo izquierdo de la tarjeta. Sobre los bloques de cobre va instalada la cubierta plástica que se encarga de canalizar el aire, y que para este modelo está decorada con los ojos de Ruby, la siempre joven chica de ATI. Los modelos fabricados por los distintos partners de ATI probablemente tendrán otras decoraciones.


Aquí podemos apreciar que en el reverso de la solución de enfriamiento el plástico desaparece para permitir que los bloques de cobre hagan contacto con ambos GPU (pueden ver los ocho bronces de montaje), junto con Pads de disipación para ayudar a enfriar los chips de memoria GDDR3, el chip PLX y otros componentes menores.


La placa metálica que estaba atornillada detrás del PCB, además de darle firmeza estructural al montaje del disipador, ayuda a disipar el calor de los chips de memoria ubicados en el reverso de la tarjeta.  Esta placa, al igual que el disipador que está pintado rojo (de un rojo no muy atractivo a nuestro parecer) se calientan bastante durante la operación normal de la VGA. La solución de disipación es enorme y pesada, y se calienta bastante, cosa esperable al tener que alojar la circuitería y componentes de dos tarjetas de video en una sola. Recordemos que otros modelos dual GPU de ATI (como la X1950 Pro Dual que revisamos acá) tenían un PCB mucho más alto lo que permitía colocar los componentes más dispersos en la tarjeta.

Nivel Sonoro

En relación al nivel sonoro, DAAMIT ha aprendido mucho desde los días de la serie X1800. El insoportablemente ruidoso ventilador que incluían esos modelos hoy es reemplazado por una turbina similar a la usada en la Radeon HD 2900XT, que emite un sonido que durante el uso, a pesar de que se siente (estamos ante una turbina que gira a miles de RPM) y es la única manera de enfriar un par de disipadores como los que ya describimos.

La tarjeta la probamos fuera de gabinete, montada solamente sobre la placa madre, y el ruido era bastante aceptable comparado con otros modelos de VGA High End. Incluso, el ruido a FULL velocidad (que se escucha cada vez que rebooteamos la máquina, y creánnos que no fueron pocas veces durante este review) es mucho más discreto que el de soluciones como la presente en la NVIDIA GeForce 8800GT (que ya en su momento dijimos que era realmente insoportable), aunque, obviamente como ustedes pueden suponer, estamos hablando de pisos sonoros bastante altos, no esperen una turbina «silent» para enfriar un monstruo de las dimensiones de la Radeon HD 3870 X2.

Arquitectura: Detalles y Especificaciones

Mucho tiempo tuvo que pasar para que apareciera una nueva tarjeta de video que intentara destronar a las GeForce 8800GTX/Ultra de NVIDIA, y si señores, es otra tarjeta de video de AMD/ATI.


Veamos sus características y descifremos el porque al menos en el papel nuevamente un producto de AMD/ATI aparece como el mas poderoso del mercado.

GPU: Utilizando 2 núcleos RV670XT (Radeon HD3870) esta tarjeta incorpora todas las mejoras que AMD/ATI introdujo en su Gama Media y que vino a traerles buenos dividendos luego de una funesta familia HD2000, en donde su mejor exponente la HD2900XT fue todo menos lo que prometió. A grandes rasgos el GPU llamado R680 funciona de la siguiente manera.

Cada núcleo RV670 se comunica con sus propios chips de memoria (512MB para cada uno) mediante los 256bits de interface, los núcleos se comunican mediante el chip PLX, el cual realiza la unión (Crossfire) entre los 2 cores. Este chip PLX es el mismo utilizado en tarjetas como la X1950Pro Dual que revisamos hace un tiempo atrás y posee 32 lineas de comunicación repartiendo 16 líneas para cada core en forma bidireccional.


Proceso de fabricacion a 55nm:
Pasando de los 80nm (R600) a los 65nm (RV630 y RV610) ahora llegamos a los 55nm, lo que conlleva a mejorar el proceso de trabajo e insertar una mayor cantidad de transistores en un espacio más reducido (aumento de la densidad), es por esto que de los 700 Millones de transistores del R600 ahora el RV670 ofrece 666 Millones de transistores y en este caso esto se incrementa al doble con 1.33billones de transistores para el caso de la Radeon HD 3870 X2. Junto con la disminución del proceso de fabricación esta disminución acarrea un menor consumo energético, lo que viene de la mano de «en teoría» una menor temperatura de trabajo. En esta oportunidad los cores RV670 vienen seteados a una frecuencia bastante elevada (825Mhz) lo cual puede que limite mucho su porcentaje de Overclock.



Poder de Cómputo:
AMD/ATI posee en esta tarjeta la primera tarjeta de video capaz de ofrecer sobre 1Tera FLOPS de poder de calculo, claro, debido a que estamos ante 2 GPUs RV670XT las cuales por separado pueden ofrecer 497 GigaFLOPS cada una, a diferencia de la hasta hoy todo poderosa GeForce 8800 Ultra que «tan solo» ofrece 384 Giga FLOPS.

Memoria: Con un total de 1024MB repartidos en 512MB por cada núcleo, además de tener 256bits de interface entre memorias y núcleos, podríamos en teoría hablar de que esta tarjeta realmente posee 512bits de interface de memoria, a diferencia de lo que paso con la HD2900XT, en donde los 512bits ni se notaron. Lo que hay que mencionar es que cada núcleo posee su grupo de memoria, no es una cantidad compartida, sino que cada GPU posee 512MB de memoria para trabajar, lo cual puede que cause cierto tipo de conflictos internos repercutiendo posiblemente en el rendimiento que obtenemos.


CrossfireX: Al igual que toda la familia HD3000, esta tarjeta soporta la tecnología CrossfireX de AMD/ATI, por lo cual, siendo ésta ya un Crossfire interno entre 2 tarjetas Radeon HD3870 (en teoría), al conectarla con otra HD3870X2 estaríamos generando un Quad Crossfire, o sea, 4 tarjetas de video funcionando a la par, aumentando drásticamente el poder de procesamiento. Claro está, los drivers para implementar una solución CrossfireX entre 2 tarjetas HD3870
X2 aún no se encuentran disponibles en forma oficial.


PowerPlay:
AMD/ATI ya nos introdujo esta tecnología con las actuales Radeon HD3850 y HD3870, sobretodo luego del horror que sufrimos al ver como consumía la HD2900XT tanto en IDLE como en FULL LOAD. Es por ello que con la llegada de las nuevas HD3000, el tema del consumo está mas preponderante y vimos con alegría que la tecnología PowerPlay trabajaba de buena forma disminuyendo el consumo en gran medida, por ende, en tarjetas Duales como lo es la HD3870X2 es necesario mantener a raya el consumo energético.



DirectX 10.1:
Si bien es cierto hasta el momento el uso de DirectX 10 solamente se ha visto reflejado en una baja de los FPS pero en ningún aspecto a mejoras del aspecto grafico comparado con el DX9.0c. En el papel las cosas se ven favorables, pero las mejoras son pocas en comparación al actual DX10 viéndolo desde el punto de vista del usuario. Obviamente para los programadores y desarrolladores de Juegos, este «update» sea algo bueno ya que soportaría filtrado con una precisión de punto flotante de 32bits.



UVD:
En este caso el Unified Video Decoder posee tanto potencial que tu PC es capaz de reproducir sin problemas contenido de alta definición (HD) a 1080p (1920×1080) tanto en formato Blu-ray o HD DVD, e inclusive puede superar esa resolución y reproducir contenido HD en una resolución de 2560×1600. Todo esto solamente utilizando el poder de la VGA, dejando que el CPU quede liberado de este trabajo y dedicarse a otras labores.



PCI Express 2.0:
Con el aumento del ancho de banda pasante este tipo de tarjetas debiesen en la teroría verse beneficiadas ya que al poseer demasiado poder de computo una interface de comunicación pequeña podría generar un cuello de botella, por ende los 16GB/s bidireccionales que ofrece esta interface asegurarán un ancho de banda suficiente.

Plataforma de Pruebas: Hardware y Software

Para este análisis, requeríamos de componentes tanto en hardware como en software que estuvieran a la altura del producto, y que permitieran concluir debidamente ante que clase de producto nos encontramos.

Es por esto que hicimos una selección del mejor hardware disponible para montar la VGA, y la comparamos directamente contra la tarjeta que desde hace un buen tiempo se ha erigido como la de mayor rendimiento en la actualidad. Me refiero a la NVIDIA 8800 Ultra, salida hace casi 9 meses, en los que no ha tenido competidora por el lado del rendimiento absoluto, aún cuando su precio sólo la hace accesible a los entusiastas adinerados o a los ahorradores empedernidos.

Pero, conseguir una 8800 Ultra no es fácil. Casi no se vende en los retail de nuestro país, debido a que alternativas de mucho mejor relación precio rendimiento son las que gozan del beneplácito de los consumidores de hardware, además que como se pudieron enterar si es que leen MADBOXPC, NVIDIA ya descontinuó el modelo, dando tiempo a que las tiendas se deshagan del stock para luego introducir su próximo modelo High End (la comentada 9800GX2). Por esa misma razón, y en base a que no teníamos ninguna muestra de esa tarjeta, es que tuvimos que trabajar con una 8800GTX, overclockeando su núcleo, procesadores de shaders y memorias hasta la frecuencia de una 8800 Ultra. Costó (el calor complicaba las cosas) pero finalmente fuimos capaces de utilizarla recreando el comportamiento de una 8800 Ultra.

Para un artículo futuro quedarán la comparación contra un Crossfire de HD3870 convencionales (que no pudimos incluir en este análisis ya que AMD, que usualmente nos presta muestras para trabajar, en esta ocasión las tenía prestadas) y probar un par de HD3870X2 en modo Crossfire a ver si algún controlador futuro es capaz de trabajar en un modo CrossfireX de 4 GPU. (Tengan en cuenta que cuando AMD lanzó CrossfireX habló de escalar rendimiento sumando más de dos tarjetas, así que estamos a la espera).

Lo que ocupamos entonces en este análisis fue lo siguiente:

Hardware

Related posts

NVIDIA RTX Remix se actualiza a DLSS 3.5 con reconstrucción de rayos

Review Asus Zenbook Duo 2024 (UX8406M)

Review ASUS TUF RTX 4070 Super OC 12GB