fbpx
Reviews Tarjetas de Video

Comparativa de VGAs: 8800GT VS HD3870 + HD3850

Llegando fin de año los fabricantes se desloman para lanzar el producto perfecto (o más bien, que parezca serlo) para los jugadores que quieren hacerse un regalito de navidad obteniendo lo mejor que sus bolsillos puedan pagar. En ese panorama consumista en el que no tenemos mucho que hacer, sólo nos queda analizar a fondo las distintas opciones presentes para que puedan hacer la mejor elección de manera informada.

En primer lugar, hace poquito menos de un mes, NVIDIA presentó el refresco de su arquitectura G80: la GeForce 8800GT (G92). Hace un par de días atrás, apareció la respuesta de AMD/ATI a esta arremetida, que pretendía llenar la brecha de rendimiento entre su gama media (HD2600XT GDDR4) y su actual tope de línea (HD2900XT). Es por eso que AMD a diferencia de NVIDIA lanza dos tarjetas ubicadas en dos puntos de precio diferentes: las nuevas ATI Radeon HD3850 y ATI Radeon HD3870.

El RV670 podríamos tomarlo como una especie de renovación de arquitectura que tratará de reencantar a sus fieles quienes vieron con pena y tristeza como la HD2900XT no representó amenaza alguna para las GeForce 8800 GT/GTX/Ultra de NVIDIA. Reducción de tamaño de fabricación, inclusión de soporte DX10.1, menor interface de memorias, UVD integrado y altos clocks son al parecer la formula que eligió AMD/ATI para contrarrestar las ofertas de NVIDIA que hasta el momento son quienes poseen el cetro de las VGAs DX10 hoy por hoy.



Por su parte NVIDIA nos presentó a la GeForce 8800GT no solamente como un refresco de su línea GeForce 8800, sino como una nueva VGA que vino a llenar el vacío dejado por el bajo rendimiento de su gama media (8600GT/GTS) y su gama tope (8800GTS/GTX/Ultra); los primeros informes mostraron que la tarjeta era muy poderosa, lo que causaría una canibalización de sus tarjetas high-end. Algunos rumores dicen que la baja disponibilidad de esta tarjeta se debe a que los retailers a nivel internacional no han querido venderla hasta bajar sus stocks de  GeForce 8800GTS 320, 640M y GeForce 8800GTX. El aumento de Shaders Processors de 96 (8800GTS) a 112, junto con un aumento de su frecuencia de trabajo son la clave para ofrecer un producto de gran rendimiento, si a esto le sumamos un precio que sin ser bajo no llega a las nubes, la convierten hoy por hoy en una alternativa que estamos obligados a analizar para mostrarles la realidad.

Las tres tarjetas aún no disponen de stocks masivos a nivel mundial y deberemos esperar todavía para poder adquirirlas en nuestro país. La 8800GT estuvo disponible hace algunos días en cantidades muy limitadas y aún n o se le ve de manera masiva. La familia HD3800 todavía no aparece en Chile.

Para ver mejor a las contendientes, les preparamos esta tabla resumen.

Luego de esta breve introducción, les presentamos el duelo del año para muchos, dilucidaremos quien es la mejor alternativa para su bolsillo, si las nuevas Radeon HD3850/HD3870 o la ya famosa GeForce 8800GT. Los invitamos a seguir leyendo este review aquí en MadBoxPC.

G92: Detalles de la arquitectura

NVIDIA dio el primer golpe lanzando su línea 8000 como las primeras tarjetas de video DX10 del mercado, 1 año después lanza la primera tarjeta de video PCie 2.0 del mercado y según los distintos reportes a la fecha se ha constituido en una de las mejores opciones de compra en mucho tiempo. Veamos que factores hacen que la 8800GT cause el fanatismo que causa hasta hoy.

Proceso de Fabricación a 65nm y PCIe 2.0

Luego de presentar a toda su familia GeForce 8 fabricada a 80nm y 90nm, NVIDIA decide bajar el proceso de fabricación a 65nm y lo hace con este nuevo GPU llamado G92. Si bien puede llevar a confusión, la GeForce 8800GT es una nueva GPU, no es un Die Shrink del G80 por lo que llamarla GeForce 8800GT puede ser llamada una movida de marketing, debido a que no hay rival por parte de AMD/ATI para las tarjetas tope de línea (8800GTX y Ultra). Mencionar también que esta tarjeta a pesar de sus características posee una solución de refrigeración de 1 slot o single slot, a diferencia de las otras 8800 que todas son dual slot.

Junto con la reducción del proceso de fabricación, NVIDIA introdujo la primera tarjeta de video PCI Express 2.0, con lo cual aumentamos el ancho de banda pasante máximo lo que eventualmente podría mejorar la performance en las aplicaciones 3D debido a que se eliminaría un cuello de botella al pasar de 8GB/s a 16GB/s.

Mas y Mejores Shaders

NVIDIA mejoró su forma de trabajar los shaders y con la G92 (8800GT) introdujo 7 grupos de 16 Shaders Processors los cuales trabajan a 1500Mhz, de forma que cada Shader Processor pueda ser asignado de forma dinamica a Vertex Shader, Pixel Shader o Geometry Shader de forma eficiente y oportuna.



A su vez, con el aumento a 112SP (de los 96 de la 8800GTS), se aumento la cantidad de TMUs pasando de 32 a 56 (8 procesadores de textura por bloque de Shader) lo cual le brinda una mejora sustancial a la hora de procesar texturas, sobre todo con los juegos nuevos.

PureVideo HD

A pesar que PureVideo esta presente en toda la familia 8, solamente las representantes de la gama Media y Baja poseían soporte para decodificación de contenido HD de segunda generación (1080p).

Además debido a la carga en el CPU que este proceso demandaba para los dueños de tarjetas GeForce 8800, es que ahora se incorporó el PureVideo HD en la GeForce 8800GT, junto con una mejora en los drivers, hacen que la GeForce 8800GT sea una alternativa a tomar en consideración a la hora de la reproducción de contenido HD 1080p como VC-1 y H.264.

Junto con la inclusión del VP2 (Video Processor 2 o Procesador de Video de 2ª generación) NVIDIA integró en el GPU el BSP Engine y el AES128 Engine. El BSP Engine se encarga de manejar CABAC y CAVLC quienes son las funciones mas demandantes en el proceso de codificación/decodificación de H.264. El AES128 Engine es quien decodifica el protocolo de encriptación AES128 de los Blu-ray y HD DVD todo esto en tiempo real, con lo cual liberan al CPU de una gran tarea.

Nuevo Transparent Antialiasing

La primera vez que oímos sobre el Transparent Antialiasing fue en la época de las GeForce 7, el tema trataba en que cuando nos enfrentabamos ante una reja o un arbol, los bordes y/o alambres no se desplegaban de la mejor manera ni su fondo, es por ello que de acuerdo a un algoritmo, el Trnasparent Antialiasing le daba forma y suavidad. Este método puede ser aplicado de 2 formas: SuperSampling y Multi Sampling, MultiSampling ofrece gran calidad pero solo trabaja en algunos juegos a diferencia del SuperSampling que ofrece gran calidad pero sacrificábamos rendimiento.



Con la GeForce 8800GT ahora se podrá aplicar SuperSampling sin perder tanto rendimiento, asimismo el nuevo Multi Sampling ofrece una calidad que se iguala a la ofrecida por el AntiAliasing 4x (AA4x) y con una perdida del 6% en rendimiento.

RV670: Detalles de la arquitectura

Por desgracia, al analizar los distintos hechos sucedidos en el tiempo tenemos que siempre AMD ha tenido que presentar tarjetas de «respuesta» a productos NVIDIA. El hecho de lanzar su arquitectura o refresco después que su competencia (y con después me refiero a 1 mes o máas) hace que la situación se les ponga más complicada ya que deben competir contra alguien que ya tiene cierta penetración de mercado con sus nuevos productos. Ahora por suerte la demora no fue tanta y sólo 20 días despues de la aparición de G92 AMD/ATI nos presenta al core RV670 como un refresco del bullado R600 (HD2900XT), pero con algunas diferencias, las cuales les presentaremos a continuación.

Proceso de Fabricación a 55nm y Controlador de Memoria Mejorado

Pasando de los 80nm (R600) a los 65nm (RV630 y RV610) ahora llegamos a los 55nm, lo que conlleva a mejorar el proceso de trabajo e insertar una mayor cantidad de transistores en un espacio mas reducido (aumento de la densidad), es por esto que de los 700 Millones de transistores del R600 ahora el RV670 ofrece 666 Millones de transistores. Junto con la disminución del proceso de fabricación esta disminución acarrea un menor consumo energético, lo que viene de la mano de «en teoría» una menor temperatura de trabajo. En lo que respecta al controlador de memoria, podemos decir que con la familia HD2K aprendieron la lección ya que nos presentan una nueva familia con un controlador de memoria Mejorado con un USO EFICIENTE del ancho de banda, cosa que no sucedía con la R600 por ejemplo, en donde los 512bits de interface no se notaron y fueron «derrotados» por los 320bits de la competencia.

PowerPlay

Este nombre no debiera ser nuevo para aquellos que poseen laptops o notebooks con Video AMD/ATI (IGP), ya que es una tecnología que permite modificar no solamente los clocks, sino que también los voltajes de la VGA, con la consiguiente disminución en el consumo energético y de la temperatura.

Algo que siempre se le «sacó en cara» al R600 fue su alto consumo en todo momento, es por ello que con el RV670 se enfocaron en esta falencia y la mejoraron con esta tecnología. Eliminaron los clocks 2D/3D sino que ahora todo es en base al % de USO del GPU.

DirectX 10.1

Otra de las cosas con las cuales AMD/ATI se vanaglorian con estas nuevas VGAs es el hecho de que soportan a la próxima actualización por parte de Microsoft de su API DirectX 10.1. Si bien es cierto hasta el momento el uso de DirectX 10 solamente se ha visto reflejado en una baja de los FPS pero en ningún aspecto a mejoras del aspecto grafico comparado con el DX9.0c

En el papel las cosas se ven favorables, pero las mejoras son pocas en comparación al actual DX10 viéndolo desde el punto de vista del usuario. Obviamente para los programadores y desarrolladores de Juegos, este update sea algo bueno ya que soportaría filtrado con una precisión de punto flotante de 32bits. A pesar de ello últimamente la gente de Crytek le «bajo el pelo» diciendo que a pesar de que ellos van a incorporar las nuevas tecnologías para sus juegos, no han decidido irse por DX10.1 ya que no representa ninguna mejora a la actual tecnología, al menos por ahora. Y no solamente Crytek sino que la misma gente de Microsoft mencionó que «DX10.1 es una actualización que no afecta a los juegos de ahora ni a los del futuro«.

UVD+ (Unified Video Decoder Plus)

A diferencia de la generación anterior (HD2000) en donde el UVD estaba presente solamente en la línea Media y Baja (HD2600 y HD2400) ahroa AMD/ATI decide incorporarlo en estas nuevas tarjetas de video, ayudando con esto a la reproducción de material HD en todos sus formatos (VC-1, H.264, etc) cosa que la R600 realizaba pero con gran carga para el CPU. Ahora bien lo incluye y mejora llamandolo UVD+ ya que incorpora el decoder AVC junto al VC-1 y H.264.

Junto con mejorar el UVD para la reproducción de contenido HD 1080p, agregan la capacidad de reproducir contenido HD a resoluciones de 2560×1600 pixeles, con ello entregan soporte HDCP a resoluciones superiores a 1080p sin efecto Ghosting, ruido reducido, realce de bordes, colores vivos, etc.

PCI Express 2.0

Estas tarjetas son las primeras de parte de AMD/ATI en incorporar el nuevo estándar de conexión PCI Express 2.0 el cual dobla el ancho de banda pasante con respecto a la generación actual PCIe 1.1.

Con este paso a PCIe2.0 las tarjetas poseen un ancho de banda de 16GB/s de traspaso de información, a diferencia del actual PCIe 1.1 donde el bus es de 8GB/s. A decir verdad, posiblemente con la aparición de nuevos juegos podamos sacarle el provecho a este nuevo estándar, ya que actualmente es como el paso preliminar de AGP8x a PCie16x, la ganancia (si es que hay) es marginal. Salvo en el caso en que se tenga que cargar una textura demasiado insana.

8800GT: Primera mirada

Lo primero que nota el ojo avizor al observar la 8800GT es su sistema de ventilación. A diferencia de las ya conocidas 8800GTS, GTX y Ultta, las cuales ocupaban grandes y pesados sistemas que incluían incluso heatpipes con el fin de mantener siempre a raya el calor, aquí nos encontramos con un diseño delgado, monoslot, muy a la usanza de lo que ATI mostró sobre la X1950Pro. El color negro sobre el PCB verde es el que nos recuerda que nos encontramos frente a un producto NVIDIA.

Por el reverso, los 12 tornillos que nos recuerdan que desmontar el disipador nos tomará varios minutos. El resto, lo de rutina. Una molestia innecesaria es que al volver a atornillar el disipador sobre el PCB, debemos enchufar primero el conector de energía del ventilador. Si no lo hacemos, luego de atornillado el disipador veremos que es imposible enchufar el conector debido a que el socket de ese conector queda debajo de la carcasa negra.

Al retirar el disipador y dejar el PCB desnudo ante nuestros ojos, vemos los 8 chips de memoria y con sorpresa notamos que el chip NV I/O presente en los modelos 8800GTS/GTX/Ultra ha desaparecido. NVIDIA informa que ese chip ahora está incorporado dentro del GPU.

El núcleo es bastante grande, debido a que las mejoras de las arquitectura G80 junto con la inclusión ya mencionada de chips como el NV I/O hacen que el número de transistores utilizado en el GPU sea mucho mayor que el de sus antecesores de 90nm.

Las memorias utilizadas son Qimonda, de 1ns. Su potencial entonces está en los 2000Mhz, dando espacio a la posibilidad de overclockear las frecuencias de fábrica, en este caso de 1800Mhz.

Ahora vemos los reguladores de voltaje y las fases de poder, imprescindibles para dejar la energía eléctrica apta para alimentar el GPU.

HD3870: Primera mirada

La tarjeta mantiene una estética similar a la de la HD2900XT, reemplazando las llamas cromadas por nuestra amiga de siempre, Ruby. Aún cuando en líneas generales conserva un parecido con la HD2900XT, se aprecia de inmediato que su peso es mucho menor. La tarjeta requerirá para su instalación de dos slots de expansión contiguos libres.

El reverso no muestra nada novedoso ni inusual, una apariencia muy similar al resto de tarjetas que venimos viendo desde la serie X1800. Sólo cuatro tornillos mantienen fijo al disipador, encargándose el resto de fijar los disipadores de VRM y memorias.

La foto «clásica» que certifica que estamos ante una auténtica HD3870.

Hora de jugar a los reviewers de verdad, tomar el destornillador y retirar la carcasa-disipador: ahora el PCB está completamente expuesto. Podemos ver los módulos de regulación de voltaje, que al parecer se calientan bastante (llevan montada disipación pasiva, aunque de aluminio pintado) y los ocho chips de memoria GDDR4.

Luzcamos el macro de nuestra cámara, que para algo está, y mostremos el núcleo RV670 en gloria y majestad. El primer ejemplar construido bajo proceso de 55nm está ante nuestros ojos.

Memorias GDDR4 de 0.8ns, las que teorícamente deberían llegar hasta 1250Mhz, es decir 2500Mhz DDR. Ya será hora de overclockear como Dios manda y ver donde hasta donde llegan.

Aquí tenemos delante de nosotros el circuito de regulación de potencia, encargado de entregarle energía estable y segura al GPU y memorias.

HD3850: Primera mirada

Las líneas de esta tarjeta se asemejan a su antecesora, la HD2600XT. También desaparecen las llamas cromadas, pero la estructura de ventilación de un slot, que conocimos en su momento con la X1950Pro se mantiene, siguiendo la estética de las tarjetas mid-high end de AMD. Liviana de peso, aunque tiene un PCB del mismo largo que el de su hermana mayor, la HD3870.

Nuevamente, nada novedoso ni inusual que ver, lo que diferencia a esta tarjeta de la HD3870 es que el disipador necesita de 10 tornillos para manternerse fijo a la tarjeta. Si quieren desarmarla, pasarán un buen rato destornilando.

Sí, sí. La desarmamos y aquí la tienen. Un PCB igual al de la HD3870, con su correspondiente conector de energía PCI-E. La misma cantidad de etapas, lo mismo todo. Evidentemente es una versión más básica de la tarjeta que vieron en la página anterior.



GPU a la vista.



Memorias GDDR3 de 1.1ns, capacitadas para alcanzar una frecuencia teórica de 1820Mhz. Ya verán como las hacemos llegar al límite.



Aquí los amantes de la electrónica pueden encontrar los VRM y resto de las fases de poder.

Ventilación: Qué tantos ruido y calor son soportables?

Hagamos una pequeña inspección a los sistemas de ventilación de cada una de las tres tarjetas. Partamos con la AMD ATI Radeon HD3870:

Sistema de doble slot. A velocidad máxima es muy desagradable. Cuando se va calentando sube de intensidad gradualmente ocasionando que durante el juego tengamos que estar escuchando como cada 5 segundos sube o baja de intensidad, siendo similar su ruido a un ronroneo que va subiendo de intensidad. La diferencia entre su estado silencioso (que es el que escucharemos la mayoría del tiempo en el escritorio del sistema operativo) y cuando está en acción es notoria, aunque en el uso cotidiano jamás llegará a andar a velocidad máxima (donde emite el ruido más desagradable).

Mantiene las temperaturas a raya y da un buen margen para overclockear. La tarjeta durante el uso cotidiano se calentará y no poco (recordemos que por muchos 55nm que tengamos y por todas las optimizaciones que haya, un derivado de R600 es un derivado de R600), pero no llega a ser un problema apreciable. Además el aire sale fuera del gabinete (lo que puede llegar a entibiar nuestra bebida si la tenemos puesta cerca de la salida de aire) lo que evita que el calor afecte a otras piezas o se encierre generando más calor para la propia VGA.

NVIDIA GeForce 8800GT


Lamentamos decir que el sistema de ventilación de la 8800GT nos parece un poco deficiente. Ocupa un slot solamente, pero a velocidad máxima su sonido es realmente insoportable. (Aunque por alguna razón el ventilador jamás gira por cuenta propia a alta velocidad, prefiere mantenerse al 30% y calentar la tarjeta… si quieren hacerlo andar más rápido y que refresque de mejor manera tendrán que hacerlo manualmente). No realizamos pruebas termocupla en mano para determinar temperaturas, pero el monitor de temperaturas de Riva Tuner llegaba en ocasiones a los 90 grados. Además, al ser un diseño de 1 slot similar a lo visto en la X1950Pro, expulsa el aire en diagonal DENTRO del gabinete. Nosotros las pruebas que hicimos las realizamos con la plataforma montada fuera de gabinete, y los resultados fueron los que mencionamos… ni siquiera queremos imaginar como se calentaría dentro de un gabinete mal ventilado. Si van a comprar una 8800GT, una buena recomendación es cuidar la ventilación del gabinete, y para los más entusiastas, adquirir una solución térmica de terceros.


Se aprecian los thermal pads que hacen contacto con los chips de memoria y en la fase de regulación, que como pueden ver están puestos al «como cayeron», ya que algunos cubren la entrada de aire del ventilador. La base de contacto con el GPU es de cobre, a diferencia del resto del sistema que es de aluminio.

AMD ATI Radeon HD3850

El cooler de la AMD HD3850 es similar al que vimos en la X1950Pro y similar el que utiliza la HD2600XT GDDR4, utilizando solamente 1 slot, su construcción es íntegramente en aluminio anonizado dorado, la velocidad es dinámica y mantiene siempre el GPU dentro de un rango de temperaturas aceptable. Recordemos que estamos ante un modelo que es muchísimo más ecónomico que la 8800GT lo que insinúa lógicamente (ya veremos si es cierto o no en las pruebas) que es menos poderoso, en consecuencia se calienta menos y podría serle suficiente un sistema monoslot. Por lo menos la apreciación preliminar con el dedómetro indica que las temperaturas suben pero dentro de márgenes esperables.


Al igual que el de la GeForce 8800GT y a diferencia de la HD3870, el cooler de la HD3850, posee thermal pads para los chips de las memorias y la fase de poder, casi la totalidad de la base está recubierta de una mica transparente, obviamente exceptuando las partes de contacto con los diferentes componentes como memorias, core y fase de poder.

Plataforma de pruebas y metodología de testeo

Para realizar esta revisión se utilizaron las siguientes piezas de Hardware

Intel Core 2 Duo X6800 (2.93Ghz, 266×11)
MSI P35 Diamond
2x1024MB Corsair DHX XMS3 @1066Mhz (8-8-8-20)
NVIDIA GeForce 8800GT
AMD ATI Radeon HD3870
AMD ATI Radeon HD3850
NVIDIA GeForce 8800GTS 320MB (Link Review)
NVIDIA GeForce 8600GTS (Link review)
AMD ATI Radeon HD2900XT 512MB (Link Review)
AMD ATI Radeon HD2600XT GDDR4 (Link Review)

Seagate 7200.10 250GB SATA II (Link Review)
Antec Trio 650W
Viewsonic VX2245 22″, res. máxima 1680×1050

y en software nuestra plataforma estuvo compuesta por:

Windows XP Professional 32bits Service Pack 2
ATI Catalyst 8.43 Beta
NVIDIA Forceware 169.02 Beta
FRAPS 2.92
Futuremark 3DMark 06, pruebas SM2.0, HDR + SM3.0
Crysis – GPU Benchmark incorporado
Call of Duty 4 – Secuencia de juego real medida con FRAPS
Medal of Honor: Airborne – Secuencia de juego real medida con FRAPS
Bioshock – Secuencia de juego real medida con FRAPS
Unreal Tournament 3 – Secuencia de juego real medida con FRAPS
Need for Speed Pro Street – Secuencia de juego real medida con FRAPS


Experiencia de configuración y metodología de testeo

Para analizar las piezas procedimos a la instalación de cada una de ellas sobre una versión de Windows limpia y recién instalada en un disco limpio. Luego de la instalación del sistema operativo se procedió a la instalación de los drivers.

La instalación de estos no estuvo exenta de problemas: El driver de NVIDIA al ser cargado sobre la 8800GT causó en nuestro caso problemas de corrupción de pantalla y de pérdida de aceleración 2D. Descartamos que fuera un problema propio de la tarjeta ya que probamos con 2 tarjetas 8800GT diferentes y obtuvimos los mismos problemas. En cambio, al sacar la tarjeta y poner cualquier otra de la serie 8800 los problemas desaparecían. Evidentemente estamos ante un problema de drivers ya que al trabajar en modo «seguro» sin drivers el sistema no daba problemas. No logramos detectar en que contexto específico se daba el problema, sino que aleatoriamente se corregia y podíamos trabajar sin problemas.

Respecto al driver ATI, no tuvimos problemas con la instalación, pero en algunas ocasiones daba artifacts en Crysis, con todos los modelos de tarjeta. El resto de las aplicaciones andaba sin ningún inconveniente. Hubo algunos problemas al utilizar un filtro de antialiasing que detallamos en los siguientes párrafos.

El GPU Benchmark de Crysis corre automáticamente 4 veces, para poder descartar la primera, que corre más lenta debido a que debe ir cargando a caché las texturas y poder sacar un promedio de las tres siguientes. Exactamente esa fue la metodología que seguimos para obtener los resultados expuestos.

Todos los otros juegos fueron medidos con FRAPS; buscamos una secuencia de juego real completamente estandarizable que repetimos tres veces por cada resultado para poder obtener un promedio. Estimamos que el margen de error de estas pruebas ronda el 3%, aún cuando la desviación entre cada muestra no superó en ningún caso el 3%, manteniéndose todos los resultados dentro de un margen de décimas de FPS.


Al intentar utilizar filtros solamente pudimos testear dos aplicaciones, ya que todas las que estaban construidas sobre el engine Unreal 3
se limitaban automáticamente a 60FPS al activar los filtros. Probamos varias veces para descartar un error de configuración y efectivamente el driver al setear 4xAA limitaba los FPS a 60. Descartamos hacer mediciones en estas condiciones ya que influían negativamente en los resultados quedando en desventaja respecto a las tarjetas NVIDIA. El filtro anisotrópico se fijó a 16 muestras y se activó el antialiasing temporal en modo Supersampling.

3DMark 2006

Los benchmark sintéticos nunca han permitido obtener una estimación 100% precisa del rendimiento de una VGA. Ejemplo claro de eso fueron las tarjetas de video AMD del último tiempo, que obtenían puntajes ganadores en las pruebras pero a la hora de probar rendimiento en aplicaciones reales quedaban relegadas a un segundo lugar. Es por esto que sólo por respeto a los entusiastas incluímos puntajes 3DMark en este review, je.
      
Aquí podemos ver que la HD3870 se situaría en el mismo lugar de la HD2900XT, y que la HD3850 quedaría ligeramente por debajo de una 8800GTS 320MB. La 8800GT se escapa del grupo, superandolas mayoritariamente en los tests SM2.0. Es hora de que agarremos nuestros DVD, instalemos nuestros mejores juegos y probemos que tanto entregan todas las tarjetas que tenemos en la parrilla esta vez.

Crysis


Para muchos el juego más esperado del año, Crysis no deja indiferente a nadie. Con un motor gráfico de primer nivel que permite imagenes que rozan el fotorealismo (CryEngine 2), los desarrolladores alemanes de Crytek nos presentan un juego en muchos aspectos similar a Farcry, pero con una historia que reemplaza los terroristas por soldados norcoreanos y los experimentos genéticos por extraterrestres despiadados. Recorre distintos entornos controlando las diferentes funciones de tu nanotraje, haciéndote más veloz, más fuerte o invisible. Corre tanto en DirectX9 como en DirectX10, siendo la diferencia entre las dos API practicamente imperceptible.

Evidentemente Crysis es muy exigente en requerimientos, y aquí podemos ver que la que más se defiende en esta prueba es la 8800GT, que obtiene una ventaja holgada por sobre cualquiera de las otras tarjetas, teniendo una ventaja de casi un 30% por sobre sus competidoras más cercanas. La alta frecuencia de la 8800GT se impone, así como también vemos que la HD3870 tiene un rendimiento exactamente igual al de la HD2900XT. Lo mismo por menos precio. La gama media anterior ni hablar, queda muy por debajo de todas las nuevas opciones.

Al activar los típicos filtros eye-candy (suavizado de líneas y corrección de texturas) se mantiene lo visto en el gráfico anterior. A la máxima resolución de nuestro monitor la HD2600XT y la 8600GTS no son capaces de terminar la prueba ya que muestran errores gráficos propios del agotamiento de memoria. La HD3870 logra un rendimiento como el de la HD2900XT, pero no hay manera de que se acerque a la 8800GT que saca más FPS en todas las resoluciones.

Call of Duty 4

Otra entrega de la famosa franquicia de Infinity Ward que traslada la acción por primera vez fuera de las trincheras y las playas de la segunda guerra mundial para situarnos en un presente «ficticio», luchando contra enemigos de un país del medio oriente «ficticio». (También hay que matar rusos, para que no digan que este juego es pro guerra en Irak, ja). Un buen nivel gráfico que a pesar de todo es menos exigente que otros títulos contemporáneos, corre bajo DirectX9 demostrando que aún falta mucho para DirectX10 sea una necesidad.

COD4 muestra números un poco más altos pero que mantienen la tendencia: la 8800GT sobrepasa cómodamente a todas las tarjetas analizadas, aunque ahora podemos ver que la HD2900XT tiene el mismo rendimiento que la HD3870 en resolución baja, pero la supera al aumentar el número de pixeles desplegados en pantalla, presumiblemente debido al mayor ancho de banda en memorias. La HD2600XT y la 8600GTS caen sin remedio incluso ante la más económica del grupo, la HD3850, que las supera por un 65% y un 45% respectivamente. Nada que hacer.

El panorama en Call of Duty 4 es más favorable a NVIDIA que a ATI. Puede que sea cosa de drivers, ya que a diferencia de lo que se vio en Crysis aquí la 8800GTS 320MB logra superar a la HD3870. En esa misma línea, la 8800GT logra ventaja sobre todas nuevamente. La HD2600XT y la 8600GTS se quedán muy atrás en la gráfica.

Bioshock

Desarrollado por 2K Boston/2K Australia (Antes irrational Games), este juego nos trasporta al año 1960 en medio del Oceano Atlántico, donde por causas desconocidas nuestro avión se estrella y eres el único sobreviviente. Luego de ello eres llevado a una ciudad Submarina: Rapture, ahi comienza Bioshock. Poderoseado por el Unreal Engine 3.0, este juego destaca por su gran cantidad de efectos, a pesar de estar optimizado para DX10, corre en Windows XP (DX9) sin problemas.

El motor Unreal Engine 3 no es tan exigente como otros, pero provee de un muy buen nivel de detalle. Esa optimización es muy querida por los jugadores, ya que permite correrlo incluso con tarjetas no muy poderosas, y en el caso del hardware más potente hacerlo de manera 100% fluida permanentemente.

La gráfica confirma lo que hemos venido viendo en las pruebas anteriores, ya que las tarjetas de la antigua gama media quedan penosamente relegadas por un amplio porcentaje al último lugar. La HD3850 aún cuando es la más débil de las nuevas tarjetas rinde muy por encima de las perdedoras, mostrando que podría llegar a valer cada peso que cueste. Ya tendremos que analizar con más detenimiento la relación precio rendimiento de cada una.

Medal of Honor: Airborne

Continuación de la exitosa saga Medal of Honor, Airborne nos traslada nuevamente a la Segunda Guerra Mundial, pero ahora pertenecemos a la 82ª División de Paracaidistas. Basado en el Unreal Engine 3.0, este juego aporta mucho al atractivo visual y a la jugabilidad, soporte tanto para DX9 como DX10, saca provecho total de las librerías de Shader Model 3. A pesar de que no son graficos que destaquen por su gran complejidad, los destellos, fogonazos y explosiones, junto con un mapa bien logrado y detallado, hacen de Medal of Honor: Airborne un juego de temer para una tarjeta Mediana.

Por lo que se ve en el gráfico, y al comparar con Bioshock, que utiliza el mismo motor, aquí estamos frente a una corrida de prueba más exigente, pero que a la vez podría estar influenciada por el procesador, ya que las tarjetas poderosas bajan fuertemente sus rendimientos a diferencia de las más debiles que merman su rendimiento en un grado menor. La 8800GT mantiene su ventaja aunque por una distancia cercana al 15%.

Aquí vemos también como la antigua gama media sufría fuertemente al aumentar la resolución, cosa corregida efectivamente en la familia HD3800. Las tarjetas aquí separan un poco su rendimiento, mostrando que en algunos contextos la HD2900XT puede ser más poderosa que la HD3870 o su antigua rival, la 8800GTS.

Unreal Tournament 3


Poderoseado por el Unreal Engine 3.0, este FPS (First Person Shooter), posee soporte tanto para DX9 como DX10, la gráfica que ofrece al menos en este Demo, es realmente bella, paisajes muy bien logrados, pero algo que caracteriza a Epic Games, es que su motor Unreal Engine, siempre está bien optimizado, por lo que personas que posean VGAs medianamente discretas podrán disfrutar de este juegazo.

La diferencia de la 8800GT sobre las otras tarjetas es realmente arrolladora. Realmente no es competencia de ninguna de las tarjetas de su segmento de precio, sino que está al nivel de lo que «era» el rango entusiasta-high end, con la que la compararemos en un análisis posterior.

El rendimiento obtenido es muy superior al de la nueva familia de ATI, que en el caso de la HD3850 logra superar por más de un 40% a la gama media (HD2600XT – 8600GTS). La HD3870 se ve algo disminuida en este test, ya que no logra ponerse al nivel de la HD2900XT o la 8800GTS 320MB.

Need for Speed: Pro Street


La saga Need For Speed tiene para rato. Aún cuando los fanáticos de la serie recuerdan con nostalgia Most Wanted por sobre títulos como éste, es un must have para los fanáticos del asfalto (aunque más en clave Arcade que simulación propiamente tal). Las últimas entregas de Need for Speed se han caracterizado por ser muy exigentes en cuanto a hardware y entregar pocos FPS incluso en las tarjetas más poderosas. Obviamente corre bajo DirectX9, echándose de menos que carácteristicas como los vehículos deformables se aprovechen con DirectX10 y sus geometry shaders. Será para más adelante.

Los resultados se ven marcadamente limitados por algún componente distinto de la VGA, ya que obtenemos virtualmente los mismos resultados a baja resolución en todas las tarjetas testeadas (excepto naturalmente por la HD2600XT y la 8600GTS que logran marcadamente menos FPS).

Quizás el engine, quizás el procesador, algo limita que tarjetas como la 8800GT logren más rendimiento. Sólo al aumentar la resolución vemos como se marca la tendencia vista en las páginas anteriores, rindiendo la HD3870 de manera muy parecida a la 8800GTS y la HD2900XT. la 8800GT se arranca del grupo, manteniéndose como la líder de las pruebas.

NEEDS MOAR JIGGAWATTS?


No me voy a extender grandes párrafos hablando acerca de que tan eficiente energéticamente era R600. Lean nuestro análisis de la arquitectura, y verán que lo mejor que se podía decir respecto a R600 y la cuenta de la luz era que era bastante mala. La peor relación consumo-rendimiento hace mucho tiempo, y podría extenderme con varios epítetos más. AMD tiene todo esto muy claro y es con estas tarjetas, que presentan una arquitectura remozada y encogida a un proceso de 55nm (vs los 80nm de R600) , que pretende redimirse y impresionarnos positivamente. Observemos el gráfico y veamos que ocurre al encender el amperímetro.

Aquí inmediatamente nos damos cuenta que tanto para la 8800GT como para las HD3850 y HD3870 la reducción en el proceso de fabricación impacta positivamente el consumo eléctrico. En reposo la tecnología PowerPlay de AMD parece hacer efecto ya que muestra un descenso muy notorio en consumo con respecto a la estufa más conocida como HD2900XT. La 8800GT también muestra las ventajas de los 65nm, pero es a full carga donde se ve la mayor diferencia. La HD2900XT sencillamente consumía un montón (estamos seguros que si separaramos el consumo de la VGA del resto de la plataforma casi llegaríamos a que la familia HD3800 reduce a la mitad el gasto de energía), y la HD3870 y HD3850 muestran grandes mejoras.

De todas maneras, aún cuando como se ve los números han mejorado mucho, la arquitectura en que están basadas (RV670 basada en R600) no es muy eficiente energéticamente, ya que incluso estando construídas con un proceso constructivo más pequeño y siendo menos poderosas (los gráficos de las páginas anteriores lo constataron) que la 8800GT, sus números se mantienen peligrosamente cerca.

Es decir, muchísimo mejor que R600, pero aún sigue siendo una arquitectura no «óptima». Comparen el consumo de la HD3850 con la 8800GTS 320MB: Proceso mucho más pequeño (55nm vs 90nm) y un rendimiento menor, pero la misma cantidad de watts. Las altas frecuencias que necesita AMD para ser competitivo tienen la culpa. ¿Prescott, estás ahí?

Análisis Costo vs Rendimiento: cuando cada peso vale

Para hacer este análisis precio vs rendimiento revisamos los precios en el sitio americano www.newegg.com y muestreamos el precio de cada tarjeta, presentando el valor promedio en caso de encontrarse discrepancias notorias entre el mismo modelo de distintas marcas.

Los precios que encontramos al día 20 de Noviembre fueron los siguientes:

AMD ATI Radeon HD2600XT GDDR4, $139 USD
NVIDIA GeForce 8600GTS, $169 USD
AMD ATI Radeon HD3850, $179 USD
AMD ATI Radeon HD3870, $219 USD
NVIDIA GeForce 8800GT, $279 USD
NVIDIA GeForce 8800GTS 320M, $299 USD
AMD ATI Radeon HD2900XT 512M, $329 USD

En base a estos precios calculamos una tasa de «FPS por dólar invertido», la cual tiene estricta relación con la configuración de hardware que elegimos para este review. Otras configuraciones de hardware podrían entregar tasas diferentes, debido a que limitan / favorecen el rendimiento de las tarjetas de manera diferente. Teniendo en cuenta eso, observemos la gráfica que obtuvimos:

Posts relacionados

Review GIGABYTE Z690 AORUS MASTER [LGA-1700]

Mario Rübke

Review Intel Core i9-12900K: Alder Lake-S hace su arribo [LGA-1700]

Mario Rübke

Review Gigabyte CMP 30HX: Diseñada para la minería

Mario Rübke