fbpx
Reviews Tarjetas de Video

Review AMD/ATI HD2900XT 512MB

Los que gustan de los videojuegos en PC ha de estar enterados en mayor o menor grado que existen dos marcas que desde hace un buen tiempo están enfrascadas en una lucha sin cuartel por quedarse con el favor de los consumidores (y de pasada ganar mucho dinero). ATI y NVIDIA (pues este es el nombre de las dos compañías, para los que vienen despertando del coma) mes tras mes nos entretienen lanzando chips refritos, inventando modelos de bajo rendimiento de nombre parecido a los modelos de alto rendimiento del otro, contratando a los mejores expertos en lenguaje para inventar la combinación de letras que se vea más poderosa a la vista y el oído del joven geek, etc etc. La competencia no tiene cuartel, y siempre estamos con el alma en un hilo cuando se anuncia una nueva arquitectura, se llena la hardweb de ppts venenosos de una marca diciendo que la otra esta perdida sin remedio y lentamente comienzan a hacer acto de presencia los periodistas astrológicos (muy en boga hoy en DIA, es cosa de hacerse algún amiguito chino o taiwanés por Messenger, asegurarse de que todo el mundo suponga que tiene conexiones con la industria y vamos inventando) que presentan rumores que muchas veces son un acto de imaginación realmente aplaudible. Todo el mundo sigue este tira y afloja de información, hasta que se lanzan los productos finalmente y toda la hardweb muestra los primeros análisis independientes sorprendiendo, satisfaciendo y decepcionando a todo el espectro de fanboys de todos los colores, razas, e índices de masa corporal del planeta.

Hoy es uno de esos días, y ATI (recordatorio para los que recién se incorporan: ATI fue adquirido por AMD, el fabricante de procesadores que le compite con honores a Chipzilla y que hizo furor en las tiendas con sus K8), es decir AMD, se engalana y se pone del rojo más intenso para presentar su nueva arquitectura, requetecontra conocida por todos (lo de requetecontra no es una exageración, hace tanto tiempo se viene hablando de esta arquitectura que hoy estamos felices de verla finalmente armadita y funcionando) como R600.

De R600 se han dicho muchas cosas: al principio se hablo de que tendría 64 píxel y vertex shaders (como se ríe uno ahora de los astrólogos del Chantirer y demases), que saldría a fines del 2006, que no tendría 64 píxel y vertex shaders, sino que tendría shaders unificados, que saldría en febrero de 2007, que su rendimiento era muy superior al de G80, que seria gigantesca, que saldría en marzo de 2007, que seria un 10% más potente que G80 en Directx10, que valdría 500 dólares, que saldría en abril de 2007, etc. etc. etc. Como pueden ver una interminable retahíla de inventos y desmentidos que para lo único que sirvieron era para mantenernos entretenidos hasta que nos llegara uno de estos juguetitos para probar en nuestros laboratorios.

Entérense aquí en MADBOXPC acerca de R600, la esperada nueva arquitectura de la ahora división de gráficos de AMD, y de que tan bien se podría insertar en el mercado a casi 6 meses de la aparición de las primeras tarjetas compatibles con Directx10, y aun a la espera de que aparezca el primer juego corriendo bajo este API.

Inspección Visual

A penas nos toco enfrentar la nueva tarjeta presentada por ATI recordamos el  robot que armamos en el último review realizado de la última tarjeta top de linea que revisamos de ATI ante un lanzamiento bajo NDA nos referimos a la  x1950XTX, todo esto ocurria en al tiempo en que AMD se hacía de el “gigante rojo” hace 9 meses atrás.

Una fotografía comparativa de los tamaños de las tarjetas, claramente la que más sobresale por su gran tamaño es la GeFoce 8800GTX, seguida de cerca de la protagonista de esta revisión, la ATI Radeon HD2900XT.

Señoras y señores, basta de filtraciones y fotos de “Portaviones”, ésta es la ATI Radeon HD2900XT, en su versión de 512MB. A simple vista pareciera una X1950XTX con un cooler mejorado al más puro estilo de las GeForce 8800's.

En su retaguardia, la HD2900XT está cubierta por su solución de refrigeración, vemos que en la zona del GPU existe una densidad de población electrónica muy grande.

Al mirar a la HD2900XT “de frente” apreciamos su sistema de salida del aire caliente, mediante esa rejilla que abarca otro slot de nuestra placa madre y gabinete. Además vemos las 2 saidas DVI Dual Link y la S-Video TV-Out.


Mirada a Fondo

Una vez que retiramos el cooler, vemos a la HD2900XT en su esplendor, sus 8 chips de memorias de la parte anversa, el chip ATI Theater 200, la fase de poder digital, etc.

Un acercamiento al core, como muchos ahora saben no posee serigrafía a laser sobre el Die, por lo que toda la información se encuentra en la placa que lo rodea, la cual es levemente más alta que el core.

La HD2900XT por su reverso, como lo mencionamos anteriormente la zona del GPU se encuentra muy poblada por elementos electronicos y electricos de superficie. Asimismo tenemos los restantes 8 chips de memoria para hacer un total de 16, lo cual nos dan los 512bits de interface que promete ATI.

Mirando a la HD2900XT por arriba, se aprecian los 2 conectores de poder de la VGA, uno es el “clásico” PCIe de 6 pines, el otro es el nuevo que se pretende instaurar de 8 pines. En conjunto vemos a través del plástico del cooler los 2 heatpipes del disipador.

A pesar que en la foto no se lee perfectamente la información grabada en las memorias, las calugas que monta la ATI HD2900XT son de la marca Hynix con un tiempo de acceso de 1ns, lo cual nos dá una frec máxima de trabajo de 1000Mhz.

Solución de Enfriamiento: Temperatura y Nivel Sonoro

Es hora entonces de continuar con la inspección ya entrando a lo que muchos esperan y que a nosotros nos encanta, tomar desatornillador y empezar a desarmar este monstruo.

Como lo comentamos en la página anterior, la solución de refrigeración de esta nueva VGA es dual slot, de grandes dimensiones.

Para retirar el cooler de la HD2900XT en primer lugar retiramos la placa negra fabricada en aluminio.

Por el reverso de esa placa, vemos los thermal pads para las memorias de la parte posterior de la VGA.

El cooler, su base es de cobre con una leve modificación para que calce en el core de la HD2900XT.

Gracias a “dedos”, podemos apreciar uno de los 2 heatpipes del cooler de la HD2900XT, junto con ello las aletillas del disipador. Obviamente todo fabricado en cobre.

La última fotografía al cooler junto con el fan, cabe recalcar que este cooler es muy pesado y a su vez muy ruidoso, nada que ver con el cooler que encontramos en la Radeon X1950XTX donde a pesar de ser igualmente pesados, los niveles de ruido eran mucho más bajos (Claro que no seamos mala gente, puede que la HD2900XT sea ruidosa, pero no al nivel de una X1900XTX con el ventilador girando a full).


Temperatura y Nivel de Ruido

A pesar de que se ve que es un cooler grande y cuya gracia es ser íntegramente de cobre, la verdad es que la Radeon HD2900XT es una tarjeta bastante calurosa, solamente estando en idle en escritorio por un período de no más de 30minutos, la tarjeta llegó a estar a 56ºC.

Cuando comenzamos algunas pruebas de los Demos DX10 (que verán más adelante), la VGA llegó a unos 70ºC, durante ese tiempo el ruido provocado por el cooler era realmente molesto.

Cuando overclockeamos mediante Overdrive la temperatura llegó a niveles realmente altos, más de 86ºC en una VGA, con su cooler stock a full rpms, salía y salía aire caliente del interior de la VGA, per de igual manera la temperatura no descendía.

Si recordamos a las 8800GTS/GTX el nivel de temperaturas no es muy alejado, solamente que en las GeForce 8800's al momento de setear el fan a 100% la temperatura realmente se nota que baja.

Características y Especificaciones segun AMD


Veamos las especificaciones tecnicas de la AMD ATI Radeon HD2900XT en comparacion contra los modelos high end de su competencia.

 

GeForce 8800 GTX

GeForce 8800 GTS

Radeon HD2900XT

Frecuencia Núcleo

575 Mhz

500 Mhz

742 Mhz

Frecuencia Memoria

900 Mhz

800 Mhz

828 Mhz

Stream Processors

128

96

320

ROPS / Render Back Ends

24

20

16×2

Cantidad de Memoria

768 Mb

640Mb

512Mb

Interfaz de Memoria

384-bit

320-bit

512-bit

Ancho de banda Memoria

86.4 Gb/seg

64 Gb/seg

106 Gb/seg

Cantidad de transistores

681 Millones

681 Millones

700 Millones

Proceso de fabricación

90nm

90nm

80nm

MSRP

USD549

USD439

USD399


La HD2900XT pareciera estar por arriba en casi todas las specs; veamos como se traduce esto en su nueva arquitectura y veamos si en las pruebas los resultados son coherentes con estos valores.

Un hecho que no se debe olvidar, es que la AMD ATI Radeon HD2900XT incluye dentro de su precio de USD399 el Black Box de Valve, que consiste en tres videojuegos descargables via Steam (que aun no estan disponibles, por lo que como cortesia se puede descargar Day of Defeat totalmente gratis), los cuales son Half Life: Episode 2, Team Fortress 2 y Portal.

R600: Detalles de la Arquitectura 1

Podria pasarme una semana entera escribiendoles un articulo sobre cada detalle tecnico de R600, pues para esta familia de productos AMD ha sido muy muy generoso con la información, y en la serie de charlas que nos dieron en su casa central en Sunnyvale, California pudimos bucear hasta los abismos de lo desconocido conociendo de temas tan complejos como la programación misma dentro de un GPGPU (donde la charla la daba un genio de Stanford que lideraba distintos proyectos relativos al uso de GPGPUs, entre ellos el conocido Folding@Home), hasta las distintas características que poseia R600 y que según la gente de AMD la hacian una joyita del diseno en silicon. Una buena explicación para tanta profundidad en los temas tecnicos (que debo reconocer que a veces me dejaban simplemente lelo, algo de experiencia tengo en el campo de las graficas y he trabajado programando shaders y ese tipo de cosas, pero toda la información que recibimos fue realmente contundente) es que ahora nos encontramos ante AMD, fabricante de procesadores, lanzando su primera arquitectura grafica. Bien por AMD y por permitir que esa información este al alcance de los simples mortales.

Hagamos entonces un breve sumario (para no hostigarlos con 25 parrafos de ultradensidad tecnica que probablemente se saltaran) de lo que incluye R600:

Soporte DirectX 10:

DirectX 10 trae lo que todos comentan en el ultimo tiempo: shaders unificados. Ya se acabaron los tiempos de tener “x” píxel shaders e “y” vertex shaders, y ver como se desperdiciababa silicio en algunas situaciones puntuales, como cuando habia una escena muy compleja en terminos de uno de los tipos de shaders, lo que causaba que ese trabajara a full, dejando al otro en estado ocioso y sin poder aprovechar su potencial de procesamiento.


R600, al igual que G80 trabaja en base a shaders unificados, donde además se incorpora un shader nuevo, el Geometry Shaders, que nos permite hacer operaciones de creación de geometría EN LA GPU, y no teniendo que recurrir solo a modelos cargados en memoria o a sobrecargar la CPU. Con esto se pueden generar terrenos y sus variaciones completamente en tiempo real lo que insinua que nos podemos encontrar ante una experiencia de juego mucho más real. Los tiempos de los mapas donde todo estaba precargado parecen acercarse a su fin, y por fin veremos geometrías dinamicas, entornos interactivos, murallas deformables 100% generadas en RT por la GPU (porque en varios juegos se habian visto escenarios deformables, pero siempre eran deformaciones prefabricadas que tenia que ejecutar el CPU en desmedro de otros procesos). No hablo de que ahora la tarjeta rendira mucho más al usar DirectX 10 (como han afirmado muchos medios), puesto que como veran en la seccion de pruebas, si quieres tener un alto nivel de efectos visuales, tienes que tener un alto presupuesto. Asi de simple.

Stream Processors:

El termino Stream Processors fue conocido por todos con la salida de G80, que incorpora 128 de estos procesadorcitos. R600 incorpora 320, lo que no significa necesariamente que sea brutalmente más potente o brutalmente más capaz que G80, debido a que la manera en que operan los stream processor en G80 y en R600 es bastante diferente.


Los SP en R600 estan agrupados de a cinco, en los cuales solo uno de ellos es capaz de realizar algunas operaciones especiales, estando los otros cuatro solo dedicados a calcular operaciones simples de enteros. Otra cosa es que al estar agrupados y ordenados de a cinco, R600 no es capaz de procesar 320 threads como uno podria pensar, sino que solamente 64.


Claro que en una perspectiva optimista estos 64 threads pueden ejecutar cinco instrucciones cada uno por clock, pero hay que tener en cuenta que cada una de estas instrucciones tiene que ser completamente independiente de las otras para poder calcularse (la diferencia con el GPU de G80 esta en que G80 si puede ejecutar la misma instrucción, de hecho teniendo que tener un minimo de veces la instrucción corriendo en distintos threads para que opere correctamente; esto significa que por cada clock G80 corre 8 instrucciones de Vértices y 4 de Pixeles). Para la arquitectura R600, esto deja una gran responsabilidad al Ultra-dispatcher del GPU, que debera saber escoger donde mandar cada thread, y del cual haremos una primera aproximación a continuación.

Ultra dispatcher processor


En las presentaciones que vimos en AMD Place One, se veia especial satisfacción en la gente de la exfirma roja al hablar de este procesador-despachador. Se supone que es sumamente habil a la hora de definir a que SP envia cada thread, por lo que el temor de que de pronto haya minicuellos de botella y procesadores inutilizados por la inexistencia de threads con instrucciones independientes seria infundado. Este Ultra despachador esta formado de varios “arbitros” que deciden que mandar y para donde, por cada matriz de SIMDs (que son los grupitos de 5 de stream processors que trabajan unidos) de 16 de estos hay dos arbitros. Otro punto adicional es que es capaz de discernir la “urgencia” de procesamiento de un thread, siendo capaz de mandar a procesar un thread vital a un SIMD ocupado, manteniendo los datos que se estaban trabajando en reserva para volver a seguirlos procesando después. Tambien posee arbitros para texturas que son capaces de predecir cuando sera necesario procesamiento de texturas, antes de que el SIMD necesite un dato de esta indole.

Manejo de Texturas

Para cada matriz de SIMDs (ya les contamos que hay cuatro de estas), existe una unidad de texturas dedicada (por lo que sin mayor esfuerzo mental se podran dar cuenta de que nos encontramos ante 4 unidades de textura) la cual recibe instrucciones del ultra dispatcher, el cual posee como ya dijimos arbitros propios que no interfieren con el trabajo que realizan los otros arbitros para alimentar los SP.


Estas unidades además cuentan cada una con un muestreador para FP32, lo que significa que a diferencia de la arquitectura vista en R580, ahora si hay hardware dedicado al procesamiento de texturas de punto flotante. Aun asi, G80 pareciera tener mayor poder de proceso en texturas (mirando datos tecnicos tenemos que NVIDIA puede procesar 32 texturas con filtro por clock, a diferencia de R600, que solo puede procesa
r 32 texturas sin filtrar por clock, o 16 con filtro y 16 sin filtrar simultáneamente), lo que de cierta manera se puede entender viendo que ATI ha preferido privilegiar (al igual que en su arquitectura anterior) el calculo de shaders por sobre las texturas. Veamos si eso no le juega en contra.

Interfaz de memoria


Para su interfaz de memoria, R600 nos presenta una version mejorada de su Ring Bus aparecido con R520. Lo nuevo que podemos apreciar es que ahora no solo maneja la lectura de datos a traves del Ring Bus. Anteriormente la escritura se manejaba a traves del Crossbar. Caben destacar los 512-bit reales de ancho de banda que tiene R600, en contraste de los 384-bit que tiene G80. Aun asi, para mantener esta tarjeta dentro del precio que ofrece AMD, se debio sacrificar el poner memorias de un gazillion de megahertz, por lo que lo bueno que tenemos en cuanto a ancho de banda, lo castigamos teniendo memorias de una velocidad relativamente “baja”. Veamos si cuando empiece la lucha de precios y modelos reetiquetados nos encontramos con modelitos con GDDR4 de alta velocidad dando vueltas por ahí. Quizas tambien AMD esta consciente del limite de su propio controlador de memorias y es por eso que no quiso utilizar memorias de mayor velocidad. El tiempo lo dira.

Unidad de Teselacion

Esto si que fue un tema. En la presentacion de Sunnyvale se gastaron muchas horas en explicarnos a la perfeccion en que consistia la unidad dedicada de Teselacion de R600. Aun cuando este tipo de unidades todavía no puede ser utilizada directamente por la API de Microsoft (aunque se rumorea que en versiones futuras de DirectX 10 habria soporte para teselacion dedicada), existe la posibilidad de que los desarrolladores de software creen la posibilidad de teselar por hardware. Pero expliquemos mejor que es teselacion. Esta tecnica consiste en utilizar como punto de partida un mesh sencillo, de pocos poligonos, y mediante una serie de procesos matematicos afinar el nivel de detalles (o “suavidad” como podriamos llamarle tambien) de este mesh teniendo como resultado final un modelo mucho más complejo, que a la hora de haber sido sendereado directamente por los vertex shaders hubiera implicado una carga de trabajo mucho mayor y una consecuente merma en el rendimiento.


Parte de las presentaciones iban enfocadas a mostrar la teselizacion en la consola XBOX360, donde se nos explico que gracias a que R600 comparte muchas características (incluyendo esta unidad de teselizacion) de Xenos, portear juegos de XBOX360 sacando partido de todas las optimizaciones debido al hardware de XBOX360 seria mucho más fácil.


Aun cuando esta caracteristica se vea sensacional, debemos esperar a que Microsoft la soporte debidamente en DirectX10 para poder emitir una opinión más criteriosa. Es difícil pensar en los desarrolladores de videojuegos (que lo unico que quieren en la vida es vender muchos de sus videojuegos) trabajando por una caracteristica que solo unas pocas personas eventualmente podrian disfrutar (recordemos que hasta el momento la mayor tajada del mercado se la lleva NVIDIA, para desconsuelo de AMD).

R600: Detalles de la Arquitectura 2

UVD: Unified Video Decoding 

Esta es la jugada con la que AMD pretende batallar contra el soporte via GPU que NVIDIA tiene para H.264 (en sus núcleos G84 y G86, esta es una caracteristica relativamente nueva que no incluyen los “viejos” G80). Todos estan enterados de que reproducir video de alta definición es una tarea muy exigente para el CPU, y es una excelente noticia el que podamos aprovechar el poder de procesamiento de la GPU para realizar este proceso.


La gracia del UVD (y es la razon por la que lleva el nombre “Unified”) es que por medio de la GPU procesaremos tanto el video H.264 como el VC-1, que son los codecs que se utilizan actualmente para visualizar video HD. Aun cuando el soportar VC-1 por GPU no es un must debido a que es bastante menos exigente que H.264 en lo que utilización de CPU se refiere, siempre más es mejor, y se agradece que AMD incluya este codec en si pipeline de rendereo de video, sobretodo porque las tarjetas de gama alta de NVIDIA son incapaces de realizar ninguna de estas dos decodificaciones por GPU. 

Donde si esta claro que UVD sera un gran gran avance sera en el campo de los portatiles, donde el consumo es clave y donde trabajar a 100% CPU para ver una película es simplemente un desperdicio de energia. Según lo que nos dijeron en California, con UVD y una de las nuevas HD Mobility, se podria ver una película completa en HD sin tener que conectarse por falta de bateria. Notable.

Les comentamos que UVD sólamente es aplicado a las series HD2400/HD2600 y Mobility HD2400/HD2600.

Conector HDMI: Sacando sonido a traves de la VGA. 

Hoy en dia a todos les gusta cumplir con estandares. Con Windows XP si queriamos disponer de una salida HDMI en nuestra VGA, debiamos tirar un cablecito desde el conector S/PDIF interno (con lo que matabamos la salida S/PDIF de la placa) hasta la placa, donde con eso agarrabamos el sonido, lo metiamos a la VGA usando un chip externo y luego lo podiamos sacar a traves de un conector HDMI.

Lo que yo les contaba recien acerca de que a todos les gusta cumplir con estandares no es casual, sino que se debe a que Microsoft invento el estandar Windows Vista Premium, en el cual este truquito recien descrito para usar una salida HDMI por la VGA no es aplicable, y si queremos cumplir con el estandar tenemos que tener una tarjeta de sonido adicional, y con esa hacer el jueguito del cable interno (debido a que para ser Vista Premium no puedes dividir la senal del S/PDIF y llevartela para tu VGA. Tiene que ser una senal propia).


El invento que AMD propone para esto es incorporar un controlador de sonido integrado en la placa, donde se conecta directo a traves del slot PCIe con la senal de sonido, eliminando el cablecito (gracias, siempre es bueno un cable menos) y haciendo todo de manera interna, evitandonos tener que comprar una tarjeta de sonido adicional si es que queremos cumplir con el estandar Vista Premium. Nada mal, aun cuando en este momento no parezca algo que haya que comprar sin dudar, sobretodo en el mercado nacional, donde los contenidos HD recien comienzan a asomar. Pero bien, siguiendo la misma logica que con UVD, más es mejor, siempre. (a menos que se trate de consumo electrico!).


Lo ultimo que podemos destacar dentro de esta serie de innovaciones es que AMD incorpora con su producto un adaptador DVI-HDMI, lo que evita que los fabricantes de tarjetas de video tengan que estar sacando modelos especiales (y más caros) con salida HDMI. Asi, TODAS las tarjetas de la serie 2000 tienen soporte HDMI. 

AVIVO HD 

Junto con todos estos regalitos para los amantes de la tendencia que se viene, HD, (y que justifica que AMD haya pasado a llamar Radeon HD a sus tarjetas graficas, la tecnología de mejoramiento de imagen AVIVO presentada en la serie X1000 ahora ha sido mejorada para adecuarse a las necesidades de la reproducción de material de alta definición y rebautizada como AVIVO HD. ES decir, ahora disponemos de una serie de filtros que apuntan a aumentar la calidad de imagen, tales como desentralazado HD, correcion de color, reduccion de ruido HD, etc. Con esto tanto NVIDIA (con su tecnología Pure Video HD) como AMD estan preparadas para tratar de conquistar al consumidor de entretenimiento de alta definición. Ya tendremos tiempo de hacer un analisis profundo de ambas tecnologías y mostrarles los pro y los contras que los ayudaran a hacer una compra de manera informada. 

Plataforma de pruebas. Metodologia de Testeo.




Hardware

La plataforma de pruebas que utilizamos para este analisis consta de lo más selecto del hardware disponible en la actualidad, con el fin de no afectar en lo posible el rendimiento de las tarjetas a testear y dejar que solo el rendimiento de ellas sea el que nos entregue el veredicto final. Muchos se preguntaran: Porque no utilizamos un monitor CRT de 21″ para poder hacer pruebas a 2048×1536? La respuesta es simple, y va de la mano al hecho de que la tendencia clara  para los gamers es encontrar el mejor monitor posible en formato LCD, por la increible mejora que han tenido en sus tiempos de respuesta, su facilidad de transporte, y varias otras razones. Nadie busca hoy en dia comprarse un monitor CRT gigante, y el TFT Viewsonic de 22″ que utilizamos para este review (y que nos gusto tanto que lo incorporamos como parte de nuestro set de pruebas permanente) cumple a cabalidad con lo que busca un gamer a la hora de jugar con una tarjeta de video High End. si este monitor muy pocos lo poseen en el Cono Sur, que queda para monitores LCD de resoluciones mayores, como 2560×1600, los que lo más probable es que no esten presentes en los hogares de NADIE que lea este review. Detallemos a continuacion la modesta plataforma donde transnochamos durante una semana para entregarles este analisis.

  • Procesador Intel Core 2 Extreme X6800@2.93Ghz 
  • Placa madre ASUS P5W DH
  • Memorias Corsair Dominator TWIN2X2048-9136C5D @DDR2 800Mhz. 4.4.4.12
  • Fuente de Poder Epower 750W, Quad PCI-e connector
  • Disco Duro Seagate 250GB(Link Review)
  • AMD ATI Radeon HD2900XT
  • XFX GeForce 8800GTX(Link Review)
  • MSI NX8800GTS -T2D640E(Link Review)
  • MSI NX8800GTS OC-T2D320E(Link Review)
  • Monitor Viewsonic VX2245

Software

  • Windows XP Professional SP2
  • ATI Catalyst 8.374 Beta
  • NVIDIA Forceware 158.22
  • 3DMark2005 v1.3.0
  • 3DMark2006 v1.1.0
  • Quake 4 1.30
  • F.E.A.R 1.08
  • Half Life: Lost Coast
  • Serious Sam 2.07
  • Call of Duty 2 1.03
  • Need for Speed Carbon
  • Windows Vista Ultimate Edition
  • ATI Catalyst 8.374 Vista 32bits Beta
  • NVIDIA Forceware 158.18
  • Metaballs Demo (NVIDIA DirectX 10 SDK)
  • Smoke Demo (NVIDIA DirectX 10 SDK)
  • Variance Shadowmaps Test
  • Call of Juarez Benchmark


Metodología

A la hora de hacer las pruebas trabajamos con los siguientes ajustes:

3DMark05 y 3DMark06: Ajustes de las aplicaciones y los drivers por defecto.

Quake 4, Need for Speed Carbon: Todos los detalles graficos al maximo, 4xAA, 16xAA, Adaptative Antialiasing activado (modo Supersampling) (todos los filtros graficos configurados desde el driver, en el caso de la HD2900XT se utilizo el modo BOX para usar el AA). Resoluciones probadas: 1280×1024, 1600×1200.Quake 4 se probo utilizando el timedemo MADBOXPC. Need for Speed Carbon se probo con juego en tiempo real, midiendo el promedio de frames por segundo obtenido en la carrera por defecto del juego durante una vuelta.

Call of Duty 2: Todos los detalles graficos al maximo, optimizacion para SLI activada, 4xAA, 16xAA, Adaptative Antialiasing activado (modo Supersampling) (todos los filtros graficos configurados desde el driver, en el caso de la HD2900XT se utilizo el modo BOX para usar el AA). Resoluciones probadas: 1440×900, 1680×1050. Call of Duty 2 se probo con juego en tiempo real, midiendo el promedio de frames por segundo obtenido durante una secuencia de juego en el mapa “duhoc_assault”

F.E.A.R.: Todos los detalles graficos al maximo except
o sombras suaves, 4xAA, 16xAA, Adaptative Antialiasing activado (modo Supersampling) (todos los filtros graficos configurados desde el driver, en el caso de la HD2900XT se utilizo el modo BOX para usar el AA). Resoluciones probadas: 1440×900, 1680×1050. F.E.A.R. se probo utilizando el test de ajustes incorporado en la aplicación.

Half Life 2: Lost Coast, Serious Sam 2: Todos los detalles graficos al maximo incluyendo HDR, 4xAA, 16xAA, Adaptative Antialiasing activado (modo Supersampling) (todos los filtros graficos configurados desde el driver, en el caso de la HD2900XT se utilizo el modo BOX para usar el AA). Resoluciones probadas: 1440×900, 1680×1050. Half Life 2: Lost Coast se probo utilizando el timedemo MADBOXPC.

Metaballs demo: Resolucion utilizada, 1680×1050, Full Screen, MS4, QS0, se corrio en dos modos: 52x52x26 y 64x64x32.

Smoke demo: Resolucion utilizada, 1680×1050, Full Screen, MS4, QS0, se corrio con todos los ajustes en su configuración por defecto.

Variante Shadowmap test: Resolucion utilizada, 1680×1050, Full Screen, MS4, QS0, Se eligieron los settings: Convoy, Camera, PSVSC, 8x Shadow MSAA, y la prueba se corrio con Shadow Maps ajustados a 512×512, 256×256 y 128×128.

Call of Juarez Benchmark: Resolucion utilizada, 1680×1050. Se corrio utilizando el ajuste a 4xAA en la aplicacion (ya que las ajustes por driver son ignorados en las aplicaciones DX10) pero en este modo solo funcionaba la HD2900XT. Las VGAs NVIDIA solo daban pantallazo negro. Al quitar el antialiasing, las tres VGAs funcionaban. Cabe destacar que la calidad grafica del benchmark al no usar antialiasing en las tarjetas NVIDIA ES MUY MALA, ya que el follaje de los arboles se ve espantoso, cuadriculado simulando transparencia, etc. Esperamos con ansias ver este benchmark corriendo decentemente y con una calidad de imagen aceptable en todo el hardware compatible con DirectX 10 disponible en el mercado.

Consumo energetico: NEED MOAR JIGGAWATTS?

Como siempre, es hora de agarrar nuestro clampmeter Fujitel y ver si nos encontramos ante un monstruo del consumo o ante un titán de la ecología. Antes que prejuiciarlos con nuestras palabras, observen el grafico para que ustedes mismos vean quien es quien en cuanto a subirnos la cuenta de Chilectra.

No hay mucho que opinar al respecto. La HD2900XT es por un buen margen la más consumidora de las tras tarjetas, superando por un buen poco a la 8800GTX (que en su momento ya le dedicamos su propio NEEDS MORE JIGGAWATTS?) y por un gran margen a las 8800GTS. Habrá que ver a la hora de hacer las pruebas si todo este consumo se justifica mediante un gran rendimiento.


HD2900XT en DirectX 9: Sinteticos

Entramos de lleno entonces a los números, donde veremos a “los más gallos” y donde podremos decir “otra cosa es con guitarra”. Frase especialmente seleccionada para el no entendimiento de culturas vecinas, pe

Posts relacionados

Review Kingston FURY RENEGADE RGB 4000MHz 2x8GB [KF440C19RBAK2/16]

MadBoxpc.com

Review SSD HIKVision E2000 ‘CRIUS’ PCie M.2 NVME 2TB

Mario Rübke

Review Notebook MSI Bravo 15

Mario Rübke