Review NVIDIA GeForce GTX 295

Hagamos un recuento histórico breve: En mayo de 2008, NVIDIA presentó su última arquitectura para procesadores de cómputo gráfico, GT200. Con ella se lanzaron al mercado dos productos que la llevaban dentro, la GeForce GTX280 y la GeForce GTX260, que en ese momento se transformaron en los GPU más poderosos disponibles en el mercado. Con eso seguían venciendo sicológicamente a AMD, que desde el lanzamiento de R600 se había visto obligada a trabajar exclusivamente en los segmentos medios y bajos, no teniendo ningún producto que compitiera efectivamente con las GPU de alto rendimiento de NVIDIA. Pero no todo podía durar para siempre. En mayo la situación cambió radicalmente cuando AMD renovó su arquitectura con su serie HD4000, donde seguía con el lineamiento de tener precios atractivos pero con cotas de rendimiento mucho mayor que la dejaban en una posición mucho más cómoda en la competencia con NVIDIA.

Aunque al principio habían prometido olvidarse del tope de línea en favor de tener precios irresistibles, pronto el excelente rendimiento que tenían hizo que lanzaran un modelo de doble GPU, la HD4870X2 que puso a AMD nuevamente como vencedor en la guerra por el rendimiento. NVIDIA no podía hacer mucho: GT200 era una arquitectura que basaba su poder en una enorme cantidad de transistores construidos a 65nm, por lo que era más cara y gastadora que lo que había hecho AMD con sus HD4000 a 55nm, además de ser casi imposible de montar por partida doble en una sola tarjeta. Su única opción era encoger el proceso de fabricación, lo que permitiría reducir los voltajes de operación, por ende el consumo y en consecuencia la temperatura. La primera muestra de este proceso, que significó un nuevo núcleo llamado GT200b, fue la GTX260+ que aumentaba el número de Stream Processors de 192 a 216 intentando superar el rendimiento de la HD4870 lo que abriría la puerta a que una versión dual superara a la HD4870X2. El resultado de eso fue un sandwich de fibra llamado NVIDIA GeForce GTX295 es lo que hoy analizamos para ver si realmente volverá a hacer que la compañía dirigida por Jen Hsun Huang gane una batalla más en la guerra por el rendimiento absoluto.

Características y especificaciones

La arquitectura interna de la GeForce GTX 295 es la misma -excepto algunas salvedades que ya mencionaremos- que su ultima generación gráfica GeForce GTX 280/260, por el contrario lo que ha hecho NVIDIA es incorporara algunas «mejoras» en lo que NVIDIA denomina «Powerful Graphics Plus Architecture», señgún la compañía la GeForce GTX 295 combina el poder de dos núcleos GT200b en una sola tarjeta de video, con un total de 480 núcleos de proceso y 1792MB de memoria de video. La GeForce GTX 295 hoy por hoy, viene a destronar a la ATI Radeon HD 4870 X2 como la tarjeta mas veloz y poderosa del mercado.

Proceso de Fabricación: El proceso de manufactura del núcleo, es una de las principales novedades de esta tarjeta. Para la GeForce GTX 295 NVIDIA ha utilizado el núcleo GT200b (G200-400-B2) el cual esta fabricado bajo un proceso de manufactura de 55nm, por TSMC (Taiwán Semiconductor Manufacturing Corp), un «die Shrink» de núcleo GT200 (G200-300-A2) de 65nm utilizado por la GeForce GTX 280. El nuevo proceso de manufactura en el aspecto técnico tiene el fin de mejorar las capacidades térmicas y de consumo de la tarjeta, mejorar su escalabilidad de frecuencias y mejorara el rendimiento productivo de chips, sin embargo, también redunda en el tamaño físico del núcleo, ya que mientras el GT200 de 65nm posee una superficie de 576mm2, el nuevo núcleo GT200b de 55nm reduce la superficie a 470mm2. Por otra parte, pasar a un proceso de manufactura de 55nm era absolutamente necesario para NVIDIA puesto que su rival en el mercado gráfico ATI de la mano de su dueño AMD, ya habían dado el paso a los 55nmdesde ya hace dos generaciones atrás, primero con las Radeon HD 3870/3850 (RV670) y luego con su actual generación Radeon HD 4870/4850/4870X2 (RV770) y derivados.

Arquitectura Interna

NVIDIA con su nueva tarjeta grafica GeForce GTX 295, utiliza la misma arquitectura y tecnologías que las GeForce GTX 280/260 con su ya conocida arquitectura de Segunda Generación de gráficos unificados y su arquitectura de computo «Parallel Computing Architecture» o Arquitectura de Computo Paralelo, además de una mejorada arquitectura de proceso grafico o «Graphics Processing Architecture». Quizás lo nuevo sea el concepto de «Powerful Graphics Plus Architecture» que hace referencia a 3 puntos, dos concretos y otro inherente a la naturaleza misma de la tarjeta, por ejemplo dentro de este concepto tenemos el hecho de soportar por ejemplo un nuevo modo SLI que combina una tarjeta dedicada para gráficos y otra dedicada en exclusiva para Físicas, un nuevo modo multi-monitor en SLI que nos permitirá extender las capacidades visuales en los juegos y finalmente el hecho de poder ejecutar fluidamente los juegos de ultima generación.

Parallel Computing Architecture:

Las GeForce GTX 295 se basa en dos modos de trabajo: «Parallel Computing Architecture» (el que vemos en la imagen) y «Graphics Processing Architecture», el primero proporciona cálculo paralelo para tareas que no son netamente acelerar juegos, sino que aplicaciones de computo intensivo como lo pueden ser aceleración de video HD, calculo de físicas, computación distribuida (folding@home), aceleración de procesos científicos, computación visual (animación, render 3D, modelado) etc y el otros modo es «Graphics Processing Architecture» que es el sistema tradicional de rendereo y aceleración gráfica para los juegos.

Para ambos casos (paralelo y grafico) el diseño interno es el mismo y se denomina SPA (Scalable Processor Array), una especie de «Framework» o estructura en la cual tenemos 10 bloques denominados «Texture Processing Clusters» (TPCs) en el modo grafico y «Thread Processing Clusters» en modo de computación paralela. En la parte inferior tenemos el sistema de memoria principal, que en el caso de la GeForce GTX 295 son 14 bloques que totalizan 1792MB de memoria grafica del tipo GDDR3 (896MB dedicados para cada GPU). Entre el sistema de memoria y el SPA tenemos también las unidades de cache de texturas (Text L2) estas son usadas para que el acceso a memoria sea más eficiente en operaciones de lectura y escritura, también tenemos unas unidades especiales denominadas «atomic», que son unidades de acceso especial a la memoria para tareas de lectura-modificación-escritura. En la parte superior esta el «Thread Scheduler», encargado de administrar los hilos de ejecución de cada núcleo, todos estos elementos forman parte del modo de computación paralela o «Paralell Computing Architecture».

Graphics Processing Architecture: Tal como comentamos al inicio la arquitectura consta de dos modos de trabajo, «Parallel Computing Architecture» y «Graphics Processing Architecture», la estructura es la misma, solo que en el modo gráfico debemos agregar las unidades ROPs (Raster Operations Processors o Procesadores de operaciones de barrido) que se componen de 8 clusters con 16 unidades cada uno, dentro un total de 128 ROPs. Mas abajo tenemos el sistema de memoria ya descrito anteriormente que tiene una interfaz de comunicación de 448-bit. En tanto las unidades de vertex y píxel shader mas la unidad de geometría de sombras (Geometry Shader) se encuentra en la parte superior, lo que conforma la ya conocida arquitectura de shader unificados. Otro elemento que se mantiene en el modo gráfico es el cache de texturas (Text L2).

TPC (Texture Processing Clusters): Si hacemos un Zoom en la estructura veremos lo siguiente: un cluster o unidad TPC (Texture Processing Clusters), dentro de esta unidad tenemos tres bloques denominados Streaming Multiprocessors (SMs) y cada uno de ellos contiene ocho núcleos (cores), 24 en total, los que conocemos con el nombre de Streaming Processors (SPs) o Thread Processors, dependiendo del modo de trabajo (grafico o paralelo), por lo tanto, si aplicamos matemáticas básicas tenemos que multiplicando estos 24 SPs por el número de TPC (10), tenemos en total los 240 Streaming Processors por cada uno de los dos núcleo que componen la GeForce GTX 295, 480 Streaming Processors en total.

Dentro del TCP tenemos también ocho unidades de textura denominadas «Texture Filtering» (TF) usados en el modo grafico, pero que también sirven en el modo de computación paralela, el bloque lo completan una memoria local compartida (Local Memory) de 16K dentro de los SMs y que tiene la función de servir como un enlace entre cada core para poder compartir datos entre cada uno, sin la necesidad de tener que leer o escribir en un subsistema de memoria externo, lo que mejora la latencia y tiempos en las micro-transferencias de cada core. Finalmente tenemos el respectivo bloque de memoria L1 que esta presente en cada TCP.

¿Más Stream Processors?: Bueno, técnicamente sí, la nueva GeForce GTX 295, incorpora efectivamente más Stream Processors, lo que se da por el hecho de que son dos tarjetas en una, o dos núcleos gráficos de 240 Stream Processors cada uno, usando operatorias básicas se concluye que en total son 480 Stream Processors, por lógica, el doble de los que incorpora la GeForce GTX 280, la hasta ahora tarjeta mas potente de NVIDIA, si esto no te queda suficientemente claro te lo detallamos con la siguiente tabla.

En el primer caso GT200 solo multiplicamos cada TPCxSMxSP y nos da el total de 240SP, para el segundo caso (GT200b), no se multiplica linealmente, solo se multiplica el producto, es decir, los 240 Stream Processors por 2, así obtenemos los 480 Stream processors de la GeForce GTX 295.

Sistema de Memoria: La GeForce GTX 295, hace uso de memorias GDDR3, a pesar de que antes de su lanzamiento se rumoreo que NVIDIA pasaría a usar GDDR5, como lo hace ATI en sus tarjetas tope de línea, sin embargo, NVIDIA sigue usando GDDR3. Tomando en cuenta que en su arquitectura interna se conforma en total por 14 bloques (7×7) de memoria, que en su arquitectura de diseño externo, se representa por 7 chips de memorias por cada lado de la tarjeta (14 en total), están ubicados en pares y cada par posee una interfaz de comunicación de 64-bit, así que si multiplicamos estos 64-bit por el numero de bloques de memoria (7) tendremos en total una interfaz de memoria de 448-Bit, que se multiplica por 2 tomando en cuenta que la GeForce GTX 295 son dos tarjetas en una.

Por otra parte estos 14 chips de memoria de 64MB cada unos conforman un Framebuffer de 896MB de memoria dedicada para cada una de las tarjetas o GPU que conforma la GeForce GTX 295. En términos numéricos tenemos que el ancho de banda efectivo del sistema de memorias en la GeForce GTX 295 alcanza 111.9GB/s por tarjeta y un ancho de banda combinado de 223.8GB/s. En este sentido la GeForce GTX 295 utiliza el mismo sistema, configuración y ancho de bus que la GeForce GTX 260 de 216 SP.

SIMT Architecture: Los modos de proceso descritos anteriormente «Paralelo y Gráfico» también usan dos modelo de procesamiento, para las ejecuciones a través del TPCs (Texture Processing Clusters) el modo utilizado es MIMD (multiple instruction, multiple data) y mas internamente para ejecuciones a través de cada SM (Streaming Multiprocessors) el modo utilizado SIMT (single instruction, multiple data), una mejora tanto en rendimiento como en a nivel de programación sobre el modo SIMD (single instruction, multiple data). SIMT a su vez asegura que todos los núcleos de proceso estén 100% siendo utilizados todo el tiempo y que los thread puedan tomar su propio camino, puesto que los desvíos (branching) son manejados por el Hardware y no necesitan branching manual.

Arquitectura Hibrida: Concluyendo con la arquitectura de la GeForce GTX 295, podemos decir que es una especie de híbrido entre la GeForce GTX 280 y GeForce GTX 260+, además utiliza el mismo diseño de «sándwich» de la GeForce 9800 GX2. Esto se da por el hecho de que la GeForce GTX 295 utiliza dos núcleos GT200b con la misma arquitectura de stream processors del GT200 utilizado en las GeForce GTX 280 (multiplicado por 2 desde luego), pero además utiliza el sistema y arquitectura de memorias de la GeForce GTX 260+, tanto en la configuración de memorias (896MB), como en el ancho del bus (448-bits) y las frecuencias (1998MHz GDDR3), especificaciones que son idénticas entre ambas tarjetas. Pero esto no es todo, ya que la velocidad del núcleo y del motor de shader entre la GTX 295 y la GTX 260, también son las mismas, es decir, 576Mhz para el núcleo gráfico y 1242Mhz para el motor de shader, como vemos algo un tanto confuso, pero que luego de leer este párrafo ya no lo es tanto, ¿el por que de esto?, bueno esa respuesta solo la tiene NVIDIA. Una vez leída la arquitectura es hora de revisar las especificaciones y tecnologías a continuación:

Especificaciones y Tecnologías:

Antes de comenzar con el detalle de rigor, debemos mencionar que las tecnologías soportadas por la GeForce GTX 295, son las mismas tecnologías que soportan las actuales GeForce GTX 280 y GTX 260+, aun así haremos el refresco de memoria respectivo, para que no estés revisando documentación anterior, aunque primero partiremos revisando un resumen con las especificaciones técnicas de esta nueva tarjeta tope de línea de NVIDIA.

Tecnologías:

NVIDIA PhysX: Como ya hemos comentado en ocasiones anteriores, las tecnologías de físicas son una herramienta que NVIDIA adquirió cuando compro la empresa AGEIA, y desde las GeForce 8 en adelante las tarjetas de NVIDIA compatibles con CUDA, son compatibles con la tecnología de físicas, y la GeForce GTX 295 no es la excepción, incluso esta tarjeta posee mayor potencia que la generación anterior para estos menesteres visuales, esto con el fin de mantener un buen “framerate” en niveles altamente complejos en los juegos, escenas con muchas animaciones y numerosos efectos físicos, entre estos efectos podemos mencionar: efectos faciales y de animación, efectos volumétricos como humo, niebla, vapor etc, simulación de fluidos y vestimenta, simulación de efectos físicos como escombros, explosiones, fuego y efectos de clima como nieve y agua, tormentas de arena, humedad, iluminación de ambientes, sombra etc etc.

Junto al lanzamiento de la GeForce GTX 295, NVIDIA libero hace algunos días los drivers GeForce 181.20 WHQL, los cuales agregaron justamente soporte para esta tarjeta y la venidera GeForce GTX 285, la versión single núcleo (GPU) de la nueva camada de tarjetas tope de línea a 55nmm, junto con estos drivers NVIDIA ha introducido un nuevo modo SLI, que ahora permite utilizar una o dos tarjeta para acelerar los juegos y la novedad de poder utilizar una segunda tarjeta exclusivamente dedicada a acelerar cálculos físicos. En el caso especifico de la GeForce GTX 295, gracias a los últimos drivers gráficos, uno de sus GPU puede ser destinado exclusivamente para acelerar los juegos, mientras que la segunda GPU se encargara de los cálculos físicos.

GeForce 3D Vision: La realidad virtual redefinida, junto con el lanzamiento de la GeForce GTX 295, NVIDIA ha introducido la tecnología GeForce 3D Vision, un invento que en escencia ya hemos visto en el cine por ejemplo, aunque la propuesta de NVIDIA es mucho mas elaborada para lograr efectos mas realistas y de inmersión cuando jugamos en el computador. La tecnología en si, requiere de ciertos elementos, tal como en el caso de CUDA y Physx, para disfrutar de la tecnología GeForce 3D Vision, debemos tener una tarjeta grafica GeForce 8 o superior, un monitor LCD que posea una frecuencia de refresco de 120Hz como mínimo, una gafas estereoscópicas o anteojos 3D que los proporciona NVIDIA, mas los drivers necesarios, el pack cuesta US$199. Más información respecto a este producto puedes encontrarla directamente en NVIDIA.

NVIDIA CUDA: La tecnología CUDA (Compute Unified Device Architecture / Arquitectura de Calculo Unificada) es un entorno de programación en C que permite aprovechar la gran capacidad de procesamiento de la última generación de GPU NVIDIA, en este caso la GeForce GTX 295. Gracias a CUDA, los desarrolladores pueden utilizar los procesadores gráficos de NVIDIA para resolver problemas de cálculo de alta carga computacional en campos como la exploración de gas y petróleo, la gestión de riesgos financieros, el diseño de productos, la generación de imágenes y la investigación científica. Debido a esto, los programadores de CUDA usarán C para crear programas llamados threads “hilos” y que serán muy similares a lo que hoy en día se conoce como “multi-threading” en los CPU’s tradicionales. Esto quiere decir que la tecnología CUDA procesará miles de tareas simultáneamente, habilitando así una gran capacidad de flujo de datos. CUDA, por lo tanto, es un elemento esencial en el modo de computación paralela o “Parallel Computing Architecture”y con la GeForce GTX 295, toma vital importancia debido a su potencia de cómputo.

Aceleración de Video: La aceleración de video es una de las tareas dentro de la arquitectura de computo paralelo y que ha sido -desde hace algunas generaciones de tarjetas atrás- (tanto ATI como NVIDIA), traspasada desde la CPU al GPU, el poder de proceso de los procesadores gráficos ha hecho que estas tareas sean mas rápidas y tomen menos tiempo utilizando el GPU, y de pasada se libera al procesador central de estas operaciones.

En el caso de la nueva generación de tarjetas comandadas ahora por la GeForce GTX 295 tenemos también una mejora en los tiempos de codificación y descodificación de video de alta definición, esto gracias a conjuncion de tecnologias como Pure Video HD y Engine de video VP2 (Video Processor 2 o Procesador de Video de 2ª generación) que ayuda en la decodificación de formatos de video SD y HD como H.264, VC-1, MPEG 2 y WMV 9. Esto trabaja conjuntamente con la utilidad de NVIDIA Badaboom v1.1 y la tecnología CUDA, esta utilidad permite codificar video utilizando el poder de las tarjetas NVIDIA compatibles con CUDA, en su última versión (1.1) permite mantener 2 instancias diferentes codificando video, algunas empresas y software ya hace uso de esta tecnología como: Cyberlink Power Director 7, TMPG Enc Xpress, MotionDSP, y ArSoft Total Media, y con el lanzamiento de la GeForce GTX 295, deberían acelerarse aun mas estas tareas en virtud de su potencia de computo.

Pornografía Geek: NVIDIA GeForce GTX 295

Siguiendo con la tradición les presentamos fotos de la tarjeta tomadas en nuestro laboratorio de pruebas. Esta vez la sesión de desarme estuvo especialmente complicada, ya que la GTX295 no tiene 15, 20 ni 30 tornillos sino que 52. Tornillos para afirmar la carcasa de la tarjeta, tornillos para sujetar cada PCB al disipador, tornillos para sujetar cada GPU al disipador, tornillos, tornillos, tornillos. Casi me arrepiento y no desarmo la tarjeta, pero como ya había hecho las pruebas de rendimiento lo peor que podía pasar era que la rompiera y me quedara con un costoso pisapapeles de un kilo de peso y 500 dólares de valor. Finalmente todo salio sin problemas y una hora después de haber empezado tenía los 52 tornillitos, dos soportes y una placa de sujeción en la mano.

Nota: Nada asegura que la tarjeta vuelva a funcionar, ya que la desarmé y aún no he intentado armarla de nuevo. Espero que no sobren piezas.

Como se pueden dar cuenta, a simple vista pareciera ser una nueva fortaleza de NVIDIA, algo similar a lo que vimos con la GeForce 9800GX2. A pesar de verse larga es de igual longitud que las actuales tarjetas tope de línea, 27 centímetros (GTX 260/280, 9800GX2, HD 3870X2/4870X2).

A diferencia de las 9800GX2 y GTX 260/280, esta tarjeta no encierra ambos PCB dentro de una «caja» de plástico/metal, sino que solamente posee una carcaza en su cara frontal. Su parte posterior se encuentra al descubierto facilitando de esa manera la refrigeracion del segundo PCB es mejor.

Algo que se extrañaba en la 9800GX2 lo tenemos en esta nueva tarjeta dual PCB, la salida HDMI, junto a ella tenemos 2 puertos DVI-i con capacidades Dual-Link. Además una pequeña rejilla de ventilación para ayudar en parte a retirar el calor que se encuentra entre ambos PCB.

Como toda tarjeta tope de línea ya es costumbre tener 2 conectores de poder, en esta ocasión de acorde con los 298W que pregona NVIDIA de TDP, esta tarjeta necesita de forma imperiosa que se le conecten ambos conectores de poder.

Ese conector SLI lo podemos utilizar para crear una configuración Quad-SLI, claramente necesitamos un equipo acorde para ello y una fuente de poder de 1000W o más.

Abriendo El Sandwich

Obviamente si estamos ante una tarjeta dual pcb no dudaríamos en desarmarla y ver como es por dentro, dicho y hecho, destornillador en mano sacamos uno por uno los tornillos que mantienen unidas a estas 2 placas entre si y veamos que causa que la GTX 295 sea un mounstruo de tarjeta.


Una vez retirado el cooler tenemos a los 2 PCB que conforman esta tarjeta. Cada una por separado podría ser una GTX 260 pero con 240 Shaders Processors cada una. Se aprecia claramente el puente SLI que interconecta ambos PCB.

El nuevo core GT200b, en este caso pasa a ser G200-400-B3. Clocks de GTX 260 pero el poder de cómputo en shaders de la GTX 280, un monstruo híbrido. Todo sea por derrotar a la competencia.

Memorias GDDR3 de fabricación de Hynix, vienen configuradas a una frecuencia de trabajo 1000Mhz (2000Mhz efectivos)

Los encargados de mantener ambos PCB trabajando juntos en modo SLI son estos conectores SLI diminutos.

Este chip es el encargado de interconectar y entregar las líneas PCIe de comunicación entre ambas tarjetas.

Al igual que con las GTX 260/280 este chip se encarga de funciones de salida de imagen, como por ejemplo 2 salidas Dual-Link DVI-i, sin embargo ambos PCB poseen el mismo chip, por lo que solamente serviría para encarecer el producto 😛

Junto a las memorias tenemos las fases de poder, cada PCB posee 3 fases de poder, «pocas» para este semejante monstruo sobretodo considerando que en conjunto hacen 6 fases de poder, especial para los casi 300W de consumo.

Pornografía Geek: Solución de Enfriamiento

Ahora pasaremos a revisar la solución de enfriamiento que posee esta nueva tarjeta de video. posiblemente nos encontremos con algo similar a lo que vimos con la GeForce 9800GX2.

Asi luce nuestra tarjeta al remover el disipador que se encuentra en medio de ambos PCBs. Como se puede apreciar en la fotografía, el core hace un buen contacto con la base de cobre del disipador, asimismo el chip NV102 y el NF200 también poseen disipación con base de cobre y «chicle» térmico.

Sujeto por la mano de nuestr@ modelo se encuentra el gran disipador fabricado en aluminio, en su interior posee un par de heatlanes que unen las bases de cobre que hacen contacto con los GPUs y la zona de aletillas para ventilación. Como se puede apreciar, la disposición de las aletillas es en dirección hacia «afuera» del gabinete, por aquella rejilla de ventilación que mostramos anteriormente.

Otra toma de la base de cobre y las aletillas de ventilación, cada «cara» de este disipador posee similar aspecto, salvo una que es la que posee el chip NF200, y que además posee el conector PCIe 16x.

Para concluir con esta selección de fotografías tenemos el fan tipo blower que genera la circulación de aire dentro del disipador. Solamente se escucha cuando se encuentra funcionando a altas rpms, este fan está manejado via PWM por lo tanto funciona similar a lo que tenemos actualmente y que conocemos como «controlado por temperatura».

Plataforma de Pruebas

Usamos en Hardware:

VGA: AMD ATI Radeon HD4870X2
VGA: NVIDIA GeForce GTX295
VGA: NVIDIA GeForce GTX280
CPU: Intel Core 2 Quad Extreme QX9770 (4000×8, 3.2Ghz)
Memoria RAM: 4×1GB Corsair XMS2 CM2X1024 6400C4 a 800Mhz 4-4-4-12
Placa madre: Asus P5E (Intel X38)
Disco Duro: Seagate 7200.10 250Gb
Fuente de poder: Tuniq 1200W
Monitor: Viewsonic Optiquest Q241WB, resolución nativa 1920×1200

Y en Software:

Windows Vista Ultimate 64bit + SP1
Fraps 2.9.8
3DMark Vantage
Call of Duty: World at War
Crysis: Warhead
Dead Space
Fallout 3
Farcry 2
Race Driver: GRID
Grand Theft Auto 4
Need for Speed: Undercover
Tombraider: Underground
GeForce Driver Release 181.20
AMD Catalyst Driver 8.12

Nuestra metodología: ¿Cómo hacemos un review?

Para nuestros reviews de tarjetas de video ocupamos sólo pruebas de juego en tiempo real, nada de timedemos u otras pruebas manipulables via drivers u optimizaciones, escogiendo escenas representativas del juego en cuestión (si es que hablamos de escenas interiores, exteriores, llenas de villanos, paisajes vacíos, etc, tenemos que jugar en todos esos lugares para ver que tanta diferencia hay entre uno y otro escenario) que monitoreamos segundo a segundo, para poder entender como los juegos consumen recursos segundo a segundo ya que así es como ustedes utilizarán el hardware en su casa. Muchas veces el promedio de FPS que pueden ver en reviews de otras web no considera que hay caídas intermitentes en el rendimiento que son capaces de arruinar una experiencia de juego adecuada.

Con nuestras gráficas (que comenzamos a usar el año pasado) ustedes podrán comparar con el video de la secuencia que mecanizamos y ver en que partes es cuando más se exige al hardware. Con esto podrán ver si el rendimiento es parejo, irregular, aceptable o de plano hace que tengamos que replantearnos nuestra compra. Estos nuevos gráficos también hacen que ustedes puedan si desean probar su propio hardware y comprobar nuestros resultados (nuestra batería de savegames está disponible para todo aquel que la necesite). Los reviews de MADBOXPC están planteados y realizados directamente desde la silla de los gamers: no más resultados irreproducibles ni decepciones por una elección de compra mal orientada.

¿Qué juegos probar? ¿Con qué configuración?

Para probar las VGA, elegimos juegos que sean representativos de la oferta que la industria tiene en la actualidad; los shooters en primera persona más populares: Call of Duty: World at War, Crysis: Warhead y Farcry 2 (representando distintos engines que se comportan de distinta manera tanto con el hardware como con los drivers), tres juegos que califican como juegos en tercera persona: Grand Theft Auto 4, Fallout 3, Dead Space y Tombraider Anniversary, un par de juegos de carreras de autos: Race Driver: GRID y Need For Speed: Undercover. Todos muy diversos en cuanto a visualidad, exigencia y jugabilidad, por lo que podrán observar mucho mejor el rendimiento general de los productos que analizaremos y hacer su elección de la manera más informada posible.

¿Y que configuración gráfica ocuparemos? Ya que estamos probando tarjetas de video de rango alto, los juegos los probaremos con las siguientes configuraciones:

3DMark Vantage

Aunque 3DMark Vantage no es un juego, sino que es sólo una aplicación que da un puntaje referencial que sirve para comparar contra otros equipos, su masividad hace que lo incluyamos en nuestra plataforma de pruebas; para esto usamos la configuración PERFORMANCE y anotamos el puntaje general junto con el que obtuvieron las GPU.

Call of Duty: World at War

El quinto juego de la serie, que nuevamente vuelve a poner nuestras botas en la época de la Segunda Guerra Mundial, tiene un motor gráfico basado en el motor que se utilizó en Call of Duty 4 y que tiene la ventaja de tener características técnicas muy actuales pero al mismo tiempo no consumir recursos de manera desproporcionada. No soporta más de 4xAA aunque los configuremos en el panel de control de los drivers, y la anisotropía se controla directamente en las opciones del juego. Para las pruebas, todas las opciones gráficas quedaron al máximo, con 4xAA y 16xAF, además de dejar las texturas manualmente seleccionadas en calidad Extra.

Crysis Warhead

Warhead es la continuación del Crysis original y corre sobre el motor Cryengine 2 que ha sido optimizado para gastar menos recursos que los que gastaba la versión original. Fue tan optimizado que permite jugar de manera aceptable con filtro de suavizado de líneas activado; para nuestras pruebas usamos la configuración «FANÁTICO» (o Enthusiast si tienen la versión en Inglés) en todas las opciones además de dejar activado el suavizado de líneas a 4xAA.

Dead Space

Dead Space es un juego que se desarrolla mayoritariamente en pasillos y salones donde pueden aparecer monstruos desde la oscuridad. Al no mostrar espacios abiertos no es demasiado exigente gráficamente, funcionando fluidamente a altas resoluciones y con todas sus opciones gráficas ajustadas al máximo posible. Aún cuando entrega la opción de suavizado de líneas (pero no de anisotropía) en las opciones del juego tenemos la impresión de que el juego no usa suavizado de líneas propiamente tal, ya que con la opción activada las líneas igual mostraban bastantes dientes de sierra.

Fallout 3

Usando una versión modificada del motor Gamebryo que ocupó por primera vez en su hit The Elder Scrolls IV: Oblivion, Bethesda trae este juego mezcla entre RPG y aventuras en tercera persona, donde deberemos recorrer extensos mapas para interactuar con NPC y pelear con monstruos ambientados en un futuro apocalíptico. La calidad gráfica es similar a la que vimos en Oblivion y el juego trae las opciones de suavizado de líneas, que ajustamos en 4xAA y de anisotropía, que pusimos al máximo (15 muestras). Todas las otras opciones y rangos de visualización se colocaron en el máximo posible.

Race Driver: GRID

Codemasters ha desarrollado este juego usando una versión mejorada de su motor Ego Game, que estrenó en su título de Rally, Collin McRae DiRT. Con un rendering bastante espectacular que se acerca mucho a la realidad, afortunadamente maneja muy bien los recursos de cómputo disponibles ya que no necesitamos tener una tarjeta de video carísima para disfrutar de todos los efectos visuales. Para probar tarjetas tope de línea además de configurar todas las opciones gráficas al máximo disponible, usaremos un filtro de suavizado de línea a 4xAA además de un anisotrópico de texturas a 16xAF. En el caso de las tarjetas AMD, al usar más de un núcleo (léase en el caso de la HD4870X2 o algún par de tarjetas en modo Crossfire) no podemos elegir 4xAA por lo que seleccionamos 2xMSAA que tiene una calidad y consumo de recursos similares.

Grand Theft Auto 4

El polémico juego de Rockstar Games, donde debemos controlar las acciones de un inmigrante europeo en una ciudad ficticia de USA, teniendo que muchas veces violar la ley y huir de la policía, es un título altamente demandante en recursos, sobretodo en memoria y CPU ya que debe realizar una gran cantidad de cálculos de inteligencia artificial. Está basado en el motor RAGE, desarrollado por Rockstar Games, y ocupa varios middleware para el control de distintas cosas, como por ejemplo el motor Euphoria, usado para controlar los movimientos de los modelos dándoles una apariencia más natural. Es un juego que está porteado desde las consolas, y desafortunadamente no permite el uso de filtro de suavizado de líneas por lo que será imposible (por ahora) evitar la presencia de dientes de sierra en pantalla.

Need for Speed Undercover

Aquí estamos frente al enésimo título de la franquicia Need for Speed, muy criticado por su falta de optimización y por su calidad gráfica que sin ser mala ha ido quedando detrás de otros juegos actuales del género. El juego está construido sobre el motor Heroic Driving, que provee las cinemáticas y física, y que permite el uso de filtros anisotrópico y de suavizado de líneas. Para nuestras pruebas pusimos todas las opciones de efectos y detalles al máximo, además de configurar en las opciones del juego los filtros a 4xAA y 16xAF.

Tomb Raider Underground

Otro juego más donde deberemos controlar a la curvilínea heroína Lara Croft entre medio de calabozos y pasillos llenos de reliquias y monstruos. La calidad gráfica supera por un buen margen la ofrecida por el título anterior pero sigue sin ser un gran desafío para las tarjetas gráficas (lo que es bastante bueno). Para nuestras pruebas dejamos todas las opciones de calidad gráfica al máximo posible además de usar los filtros de suavizado de líneas a 4xAA y de anisotropía a 16xAF.

3DMark Vantage

Luego de correr 3DMark tenemos el primer set de números del cual opinar. Aquí vemos que la GTX295 tiene un gran potencial (hasta el momento sintético, las pruebas en juegos «de verdad» confirmarán o refutarán esto) teórico ya que sobrepasa sin problemas tanto a la ex tarjeta más poderosa de NVIDIA como a la AMD Radeon HD4870X2. Veamos que pasa en el resto de las pruebas donde comprobaremos cual es la tarjeta de video más poderosa del mundo en este momento: la AMD Radeon HD4870X2 o la NVIDIA GeForce GTX295.

Call of Duty 5

Los gráficos muestran que las tres tarjetas tienen un rendimiento aceptable a ambas resoluciones, cayendo ligeramente la GTX280 a 1920×1200. La diferencia entre la GTX280 y la HD4870X2 es mayúscula, pero aún así la GTX295 se las arregla para sobrepasar sin ninguna duda posible a la tarjeta AMD. Las tres curvas son muy claras, y aunque la HD4870X2 tiene un rendimiento que casi no se inmuta al aumentar la resolución sencillamente no tiene como competir contra la GTX295. De todas maneras les recuerdo que a más de 60FPS las decisiones se tornan más difíciles, porque a menos que tuvieran un monitor más grande aún que el nuestro apenas podrían notar la diferencia entre los topes de línea de ambos fabricantes.

Crysis: Warhead

Que lindo es ver como se ha ido optimizando el Cryengine 2 luego de la salida de Warhead y sus parches. Muy pesado en la versión original de Crysis, era imposible pensar en usar filtros a altas resoluciones si no teníamos un par de tarjetas en SLI o CrossfireX. Hoy la cosa es diferente, ya que aunque las barras no muestran framerates altos la experiencia que tuve jugando Crysis con las dos tarjetas NVIDIA fue muy aceptable. El efecto de motion blur ayuda a paliar la falta de más FPS, y como pueden ver el rendimiento promedio de las tres tarjetas está muy bien segmentado: las curvas casi no se mezclan. Si tienen un monitor de 22″ o 24″ y les encanta jugar Crysis Warhead o su versión multiplayer, Crysis Wars quizás sea una buena idea pensar en una GTX295. El punto no tan favorable se lo lleva la HD4870X2 que a pesar de tener un rendimiento promedio superior al de la GTX280 tenía caídas constantes en el rendimiento jugándose a tirones. Sin filtros la X2 tendría más opciones, pero yo francamente no compraría una tarjeta de 400 dólares para no usar filtros. Definitivamente este es uno de los juegos donde la GTX295 más brilla, casi duplicando el rendimiento de la tarjeta NVIDIA que la sigue, la GTX280.

Dead Space

Este juego de pasillos oscuros y monstruos que salen de la nada para asustarnos (me recordó por momentos el Doom 3) por suerte no es demasiado exigente. Las tres tarjetas tienen un rendimiento perceptible exactamente igual, muy por arriba de los 60FPS. Eso si, en números absolutos el juego parece no ser tan amigo de ATI ya que su rendimiento cae de la tendencia quedando cerca de lo que da la GTX280. Nada para preocuparse eso si, ya que aquí los FPS sobran. Quizás con un monitor de 30″ a 2560×1600 (de esos que usan los diseñadores profesionales, no los gamers :P) habría sorpresas.

Farcry 2

Aquí ambas tarjetas duales brillan por sobre la GTX280. En el escenario que probamos la diferencia entre la HD4870X2 y la GTX295 a 1680×1050 era imperceptible, sintiéndose un poquito más fluida la GTX295 a 1920×1200. Consideren que para alcanzar esta resolución necesitan un monitor de 24″ o uno de 20-22″ muy profesional. Si lo tienen, la GTX295 a esa resolución rinde definitivamente más.

Fallout 3

Este es un excelente ejemplo de por qué mostrar sólo promedios de FPS apesta ya que la única manera de saber que tarjeta nos conviene más es ver como rinden segundo a segundo. El gráfico de promedios nos muestra que la HD4870X2 rinde técnicamente lo mismo que la GTX295 (y ambas muy por arriba de la GTX280 además de muy cerca del límite perceptible de rendimiento), pero al observar las líneas de tiempo notamos de inmediato que la Radeon está capeada a 60FPS (probamos de mil maneras y no hubo manera de que sacara más de 60-61FPS) y que la GTX295 aunque tiene picos más altos cuando cae de los 60FPS lo hace de manera más brusca que la HD4870X2. Aún así el rendimiento no cae dramáticamente con ninguna de las dos tarjetas. La GTX280 repentinamente se ve tan obsoleta… (y hace menos de un año escribí que era lo más poderoso del mundo!)

Race Driver: GRID

En GRID, el rendimiento de la GTX295 y de la HD4870X2 es equivalente (y muy bueno por lo demás, estamos hablando de 1920×1200 con 4xAA y 16xAF, algo no menor). La GTX280 queda bastante por debajo en teoría, ya que también se mantiene por encima de la barrera del rendimiento perceptible todo el tiempo. Estas tarjetas son capaces de mover casi cualquier juego sin ningún problema, y por eso aparece la pregunta: ¿Si no tengo un monitor enorme se justifica tener una tarjeta de dos GPU?

Grand Theft Auto 4

Grand Theft Auto 4 es uno de esos tragarecursos que suelen hacer rabiar a los gamers. A diferencia de otros donde lo que más limita es la tarjeta de video, aquí a lo largo de las distintas resoluciones que probamos (y créannos que probamos a 800×600 incluso) el gran limitante era el CPU. El juego tiene una calidad gráfica destacable y muy bien trabajada que le saca el jugo a las tarjetas, pero el hecho de tener que estar calculando constantemente los movimientos y acciones de muchísimos personajes dentro de Liberty City hace que la piedra de tope sea el procesador central. Si a eso le sumamos el hecho de que los gráficos muestran que evidentemente el juego no está ocupando las dos GPU de la GTX295 en modo SLI, tenemos resultados muy descorazonadores para lo que hemos visto en las pruebas anteriores. Esto no significa de ninguna manera que la(s) tarjeta(s) sean malas, sino que probablemente haya que esperar que los genios del departamento de drivers mejoren los ya existentes o negocien un parche con los desarrolladores del juego. La única conclusión que sacamos de esta prueba es que si tienes una tarjeta menos poderosa y estabas pensando en comprarte lo más caro para mejorar el rendimiento de tu GTA4, no lograrás gran mejora. Aquí lo sabio es esperar un poco, ya que el porteo de este juego para PC salió hace apenas un mes. Démosle tiempo a los programadores, que tienen fama de flojitos.

Need for Speed: Undercover

¡Aghhhhh! Otro juego donde la escalada de rendimiento al aumentar los GPU NVIDIA de 1 a 2 es nula (y casi negativa). No todo podía ser color de rosa para la GTX295, y con espanto tenemos que mostrar estos números que confirman que NFSU no sabe aprovechar dos GPU NVIDIA. La diferencia de rendimiento entre la HD4870X2 y la GTX280 es coherente con el poder potencial de ambas tarjetas así que eso significaría que CrossfireX si opera bien acá. En todo caso que quieren que les diga… Need for Speed: Undercover tiene con todos los efectos activados una gráfica bastante bonita, pero de ninguna manera justifica todo los recursos que pide. Mal, ustedes me preguntarán por qué incluir un juego así en el set de pruebas pero la respuesta cae de cajón: NFS es una franquicia famosísima y basta con que un juego lleva esas tres palabras en el título para que sea un multiventas. O sea, si lo van a jugar igual mejor que sepan como les va a andar el hardware.

Tombraider: Underworld

La última iteración de la saga protagonizada por la pechugona arqueóloga Lara Croft es más exigente con la tarjeta de video que su antecesor, Anniversary. En el gráfico vemos como el juego no quiere nada-nada-nada a la HD4870, que logra un rendimiento sustacialmente menor al de la GTX280. En el otro extremo está la GTX295, que muestra a sus dos GPU escalando magníficamente. Lo que si hay que tener claro es que estamos ante diferencias imperceptibles ya que los framerates son tan altos que escapan a la precisión del ojo humano. De hecho, incluso la HD4870X2 que tienen un rendimiento menor está al borde de esto, manteniéndose casi todo el tiempo sobre la barrera de los 60FPS.

Consumo y Temperatura

Según las especificaciones oficiales de NVIDIA, la GeForce GTX295 tiene un TDP de 289 Watts, contra los 286 Watts que anuncia AMD para su HD4870X2. Esto llevado a la práctica significaría que el consumo de la plataforma completa trabajando bajo estrés sería técnicamente el mismo para ambas tarjetas, pero como la determinación del TDP de un chip es una ciencia bastante imprecisa ya que depende de que entienda el fabricante como el punto térmico máximo de su chip, vemos que los gráficos superiores muestran una realidad completamente distinta.

Nuestro wattímetro indica que la GTX295 consume un par de decenas menos de watts que su contraparte AMD (casi 30W menos en reposo y 40W menos trabajando) lo que considerando que en la mayoría de las pruebas de rendimiento obtiene mejores resultados significa naturalmente que su eficiencia energética es mejor. Nada que hacer AMD, a pesar de que si comparando el consumo de una HD4870 de 1 GPU contra una GTX280 se evidencia que el núcleo de la GTX280 gasta más, aquí tenemos que la reducción en el proceso de fabricación a 55nm definitivamente influye y eso es el responsable del resultado final.

Ahora el tema temperaturas: la GTX295 es una tarjeta con dos GPU pero que tiene una solución estructural más compleja que la HD4870X2. Mientras la tarjeta de AMD monta los dos procesadores gráficos sobre el mismo PCB, aquí estamos ante un sandwich de PCB, con un núcleo a cada lado y «relleno» con un disipador al medio. Eso, sumado al hecho de que la tarjeta de NVIDIA tiene un consumo energético menor tanto en reposo como en operación da como resultado que la tarjeta «se siente» menos caliente que su competidora. Esto no significa que estemos ante un témpano de hielo: tanto la GTX295 como la HD4870X2 son tarjetas que disipan bastante calor, estamos hablando de consumos máximos cercanos a los 300W, lo que significa que esa sensación de menos calor en realidad significa «no me quemo tan fuerte si la toco con el dedo». Nada más ni nada menos.

Comentarios Finales

Tengo que separar mis comentarios acerca de este producto en dos áreas para no pecar de injusto ni de parcial. En primer lugar, si tenemos que hablar del rendimiento absoluto de la tarjeta todo está bastante claro: la NVIDIA GeForce GTX295 es sin ninguna duda la tarjeta de video más poderosa del mercado actual. Su par de núcleos GT200, de un poder individual intermedio entre el del GPU presente en la GTX260+ y la GTX280, se lucen a lo largo de la mayoría de las pruebas que realizamos, gracias a un buen rendimiento individual y a un modo SLI que escala muy bien con respecto a ese rendimiento individual. El producto de características similares que tiene disponible la competencia, la AMD Radeon HD4870X2, aún cuando también es muy poderosa y supera con holgura lo que puede ofrecer cualquier tarjeta de un solo GPU, no logra llegar a los rendimientos absolutos de la GTX295, llegando sólo a igualarla en algunas aplicaciones aisladas. Naturalmente esto se refleja en la valuación que ambos productos tienen en el mercado, ya que actualmente ese diferencial de rendimiento se refleja en 70 dólares de diferencia en los e-tailers norteamericanos (500 dólares americanos para la GTX295 contra 430 que cuesta la HD4870X2). Ojo que estos precios son completamente contingenciales por lo que si se encuentran con este análisis en un tiempo más conviene que chequeen los precios tanto en USA como en sus respectivos países para ver si la situación ha variado, como es probable que suceda: ya se escuchan rumores de que AMD bajará el precio de sus HD4870X2 para hacerlas más atractivas a los compradores.

Ahora pasemos al otro punto relevante. ¿A quién le recomendaría comprarse una GTX295? Partamos por el primer requerimiento importante: el monitor. Voy a ser majadero, ya que he mencionado esto varias veces en la páginas anteriores, pero como pudieron ver en los gráficos, el rendimiento a altas resoluciones es casi impecable aún usando filtros de suavizado de líneas y anisotropía de texturas (que hoy por hoy se han transformado casi en una opción «por defecto», ¿a quien se lo ocurriría comprar una tarjeta de video poderosa y no usar filtros?), exceptuando a los sospechosos de siempre: Crysis Warhead, que aunque se siente bastante bien al jugar se mantiene siempre por debajo de los 60FPS y Grand Theft Auto 4, el chuparecursos del momento que tiene el grave defecto de no soportar SLI. Entonces, para que realmente valga la pena tener una tarjeta como la GTX295, necesitamos un monitor del tamaño adecuado, ya que si vamos a jugar a 1024×768 o 1440×900 sinceramente la recomendación es elegir una tarjeta de video más barata: en el segmento de los 200-250 dólares hay varias opciones que entregarán una experiencia de juego real exactamente igual a la que entrega la GTX295 a resoluciones «normales».

Cerremos con una felicitación para NVIDIA que tras un 2008 donde fue blanco de las críticas de los medios especializados hoy ha recuperado el trono del rendimiento absoluto, con una solución que no es elegante pero ya forma parte del modus operandi de ambos fabricantes de procesadores gráficos: la anterior campeona del rendimiento, la Radeon HD4870X2, también lleva encima dos GPU. En la guerra y en el amor todo se vale. Si tienen el presupuesto (alto, pero por suerte no tan alto como otras aventuras de NVIDIA en el segmento, como la 8800 Ultra que en su momento costó 830 dólares), tengan en cuenta que necesitan una plataforma equilibrada (monitor incluido) para que la compra valga la pena. Si no tienen espacio en el escritorio para un 22″ (mínimo), piénsenlo dos veces.

Related posts

Review Asus Zenbook Duo 2024 (UX8406M)

Review ASUS TUF RTX 4070 Super OC 12GB

Review Noctua NH-U14S TR5-SP6 [Refrigeración por aire para Threadripper]

42 Comment

r4 cards 1 octubre, 2009 - 02:50

Very nice performance,more power efficient than its competition.
I had still recommend this card for its processing power and comparative value.I had still recommend this card for its processing power and comparative value.

harryccó 22 agosto, 2009 - 14:30

muy buen review, exelente dudas aclaradas para el futuro.

Javi 27 julio, 2009 - 17:40

muy interesante el review.. tambien es posible que sea un mero convenio entre las grandes marcas de micro procesadores y los desarrolladores del juego aprovechandose de los fanaticos para aumentar la demanda de los micros y asi vender mas..

Andreselmotoquero 3 mayo, 2009 - 01:26

Una barbaridad esta informacion, Se agradece el informe, habra que esperar que ati baje los precios y saque una vercion mejorar de la 4870 x2, sobre todo alguna refrigeracion mejor y con mas relog, muchas gracias!!!!!

shinigami 10 abril, 2009 - 17:53

por fin tengo esta tarjeta en mis manos , la tengo como 3 semanas.. y realmente estoy contento , se puede decir k vuela.., es robusta.. todo a full , inclullendo crysis, y como una tasa de leche… , es raro, k de un dia para otro de tener un pc k apenas te corria quake 3, tengas un pc k te corra todo y con una tarjeta tan robusta.. bueno me fueron varios meses de ahora para poder comprar mi pc nuevo, incluyendo esta tarjeta..

F.E.A.R. 7 marzo, 2009 - 05:15

totalmente de acuerdo con Oscar en el comentario final del review, yo tengo un monitor de 22″, una 9800GTX+ y un Q6600 y hasta ahora corro todo perfecto a resolución nativa.

minimalaco 4 marzo, 2009 - 15:06

muy bueno el revieww!!!, se pasaron, ya se por cual tarjeta ir jejeje xd.

Aquiles 4 febrero, 2009 - 20:42

Por cierto, felicidades por el review… excelente como siempre.

Aquiles 4 febrero, 2009 - 20:37

@Hombre Pipa: Pues 500dlls no se me hace demasiado excesivo tomando en cuenta el enorme potencial de la tarjeta… recuerda que en su momento las anteriores reinas del rendimiento (8800gtx y 8800Ultra) costaban entre 600 y 800dlls)… ahora esta las triplica en rendimiento.

Zen 28 enero, 2009 - 22:18

Excelente review, de todos modos, el precio esta bien, ya que al menos en españa oscilan los 430-500€ de media. El problema es, lo que has dicho, los promedios no sirven, ya que al gastarse 500 o 1000€ (quad-sli) en esas graficas, esperas no bajar de los 60fps nunca, aún así, al adquirir dos GTX 295, en quad-sli, todos los juegos me daban un promedio superior a 60fps utilizando fraps o gamer OSD de asus, pero en ocasiones baja a 50 o 55fps en Crysis o World of conflict, aún así después de overclockear el i7 a 4ghz, ya desaparecen los cuellos de botella y no se ve en ningún momento que baje de los 60fps, ni siquiera a 59.

Lo que quiero decir, es que la GTX 295, por sí sola o en sli, no hace milagros, ya que su potencia solo puedes ser aprovechada con un procesador de última generación (i7) y overclockeado un 30% mínimo (4,0-4,5GHZ).

Fenixx 27 enero, 2009 - 18:58

que wena..asi la vga no le tira tanto aire caliente a los demas componentes y le da mas seguridad

Fenixx 27 enero, 2009 - 18:57

Parece que ati esta quedando bien……………………………….atrassssss

Eduardo 27 enero, 2009 - 10:01

Buen review!

y tan cara no esta 500 dolares es un precio de salida bastante adecuado.

andalo 26 enero, 2009 - 23:33

Estaba más laggeado «mi PC» (De repuesto) reproduciendo ese video.. jajajajajja
Muy bueno el review… unos pequeños errores que son insignificantes.. pero en general, está excelente… xD, Gracias. mucho monstruo..

OndsKan 21 enero, 2009 - 11:51

muy buen review, se agradece.

Luis A. Nuri 21 enero, 2009 - 00:00

El mejor review que hasta ahora he visto, yo siempre he sido fanatico de nvidia y aunque muchos decian que no sacaria nada que le hiciera competencia alas tarjetas guarras de ati yo siempre confie en que si…. y mi nueva GTX 295 ya esta en camino para sustituir mi actual GTX 260.

vulturize 20 enero, 2009 - 13:12

mmm esta bueno pero el SLI sigue dando problemas::::

MARCO 19 enero, 2009 - 10:35

EXCELENTE REVIEW!!!! MUY OBJETIVO Y CLARO MADBOXPC.COM

Franco 16 enero, 2009 - 23:37

Muy buen review!
Lo que sí, me parece que tanto AMD cono NVIDIA se han propuesto lanzar tantas placas gráficas, todas con nombres distintos, y de rendimiento similar, que terminan confundiéndonos a nosotros los consumidores. No es necesario que cada 6 meses aparezca nuevo hardware que sólo mejora en un 10% el rendimiento del hardware anterior.
Pero supongo, que es business. Por lo pronto, seguiré con mi 9600GT que me ha dado muchísimas satisfacciones. Aunque ya ha empezado a envejecer.

El señor de la computación 16 enero, 2009 - 22:01

estas tarjetas son tan poderosas que luego se van a poder hacer peliculas porno hiperrealistas con el motor de crysis. Ahí me compro una

xmemox 16 enero, 2009 - 18:28

simplemente muy buena y muy cara!

cesariomantiz 16 enero, 2009 - 17:17

4870×2 xd

cesariomantiz 16 enero, 2009 - 17:15

si en este momento armo un tarro como dije anteriormente compraria un monitor normal por que uno grande me aleja mas solamente y estaria optando por una de precio rendimiento y mejoraria ram proce cosas asi pero exelente informacion igual de interesante que la anterior rod 81 esta en lo sierto esa targeta esta dirigida al super fan y la 4870 tambien

rod81 16 enero, 2009 - 16:07

@gustavo (el original y quejoso):

por eso es que estas tarjetas van dirigidas solo a un sector: mercado entusiasta. Para el resto, obviamente hay que buscar la relación precio/rendimiento o lo que más le convenga a uno. Por algo se mencionó el tema de los monitores.

Muy completo y ante todo clarificador el review, felicitaciones.

gustavo (el original y quejoso) 16 enero, 2009 - 15:29

lo unico que hace este review es confirmar que no necesito estas placas salvo que quiera jugar al crysis a todo trapo

si observo el resto de los juegos, estan funcionando a mas de 80fps (algunos ampliamente), en la resolucion maxima de un monitor de 26 pulgadas… cuando el ojo ve como mucho 30fps
incluso hay que decir que con el tiempo de refresco del de un monitor normal (5ms), el dead space no sobrepasa la cantidad de fps que el monitor podria llegar a mostrar

1 segundo = 1000 milisegundos
1000ms / 5ms cada uno = 200 refrescos… osea 200 frames… el juego alcanzo los 201……

INSISTO, para que quiero estas placas hoy? si en un año van a estar a la mitad de lo que estan hoy, y todavia van a seguir siendo mucho para los juegos que vamos a poder tener

Ysentu 16 enero, 2009 - 14:44

buenisima la tarjeta de video, pero como todos dicen, se necesita: un gran monitor, una buena fuente de poder y hardware q le acompañe (no la vas a acompañar de un pentium dual core xD). y ademas tener espacio en el escritorio para un monitor grande.
bien por nvidia, seguro q ahora amd baja los precios

Cedrik 16 enero, 2009 - 13:38

@EAHF: Correcto, fue un detalle que se nos paso, ya actualice con una tabla más completa y corregida, gracias por el apunte.

Adhes 16 enero, 2009 - 13:25

Sin pecar de fan de ninguna de las dos empresas, prefiero que el gusto sea el que decida la eleccion de los consumidores, hay muchas personas que llevan su vida en nvidia y otras en ati, o cambian, bueno es cosa de uno. Ahora, para tener este monstruo o la x2 de ati, el monitor juega su papel importante, pero no hablo de un monitor de 24″ con 8ms, sino que 5ms hacia abajo y esos no cuestan precisamente baratos…

por lo que si tienes el dinero suficiente para armarte una maquina con esta tarjetona, su buen monitor y mas encima plataforma i7, la haces de oror 😉

EAHF 16 enero, 2009 - 13:23

Hey una pregunta y disculpen si estoy equivocado, creo q hay un error en el cuadro comparativo de las VGA: 160 SP (stream processors) para la radeon 4870, no son 800 SP. Para todo lo demas esta excelente el review muy bueno.

JVortex 16 enero, 2009 - 13:07

Excelente review Oscar! Igual mula que te hayan pasado la vga terrible tarde 😛
Pero bueno, muy buen review tuyo y esperemos que NVIDIA le baje un poquito el precio, unos 40-50 verdes para atraer a los consumidores

Diego 16 enero, 2009 - 11:39

las cago el revview sinceremante es el primer review
de VGA que posteoy es porque quedo a toda raja
ojala vender mi 8800 GTS y comprarme la GTX 295 :O
para algo se trabaja jaajaj
asi probar el LCD 40″ FULL HD que regalaron para navidad 😛
saludos

Takuru 16 enero, 2009 - 06:35

Llamaron a la empresa de Aguas del altiplano por que se habia roto una cañeria matriz, pero no sabian que en realidad en mi baba corriendo libre por la calle, despues de ver el review.

rolox-z 16 enero, 2009 - 02:01

me parece que Nvidia respondio como debia, eso si la 4870×2 anda muy cercana a ella y solo decae en algunas ocaciones… lo de los monitores 100% entendible, si tienes para una vga de 500 verdes minimo tienes un monitor de 22″ hacia arriba… lo que falto era la comparacion fps vs precio… cual rendia mas por dolar pagado.

excelente review!!!!

Nikkolaz 16 enero, 2009 - 00:04

jajaja por que pusieron una foto del Saints Row donde hablan del GTA IV?
todavia no lo leo entero de ahi comento, hasta ahora todo impeke excepto la foto xD

Noir 15 enero, 2009 - 23:37

Soy el único que pensó en un Mac Pro con la foto de portada?

Excelente review de por cierto : D

giova 15 enero, 2009 - 23:19

Excelente tema, y lo que pusiste sobre monitores, es de vital importancia ahi gente que compra mega VAS y tienen monitores de 17 pulgadas.

predator30 15 enero, 2009 - 23:17

super weno el review Oscar y bueno te felicito nuevamente por tu muy buen trabajo. Es verdad y lo hemos hecho saber a través de muchas respuestas en el foro. no se saca nada teniendo este tipo de vga en una monitor lcd de 17″ 1280×1024 …para eso logro jugar perfectamente con una vga la mitad y un poco mas del costo. por otra parte, verdadero mutante esta 295 , me sorprendió mucho su rendimiento

alfresoad 15 enero, 2009 - 23:11

te las mandaste 6iE.CR muy bien redactado el review
y como dice METALWOLF no se justifica pagar tanto para resoluciones «normales»

ahora esperar que hace AMD para destronar a NVIDIA

Hombre Pipa 15 enero, 2009 - 22:45

OMG! Tremenda máquina, aunque sinceramente pienso que Nvidia lo está haciendo más o menos, porque si bien es importante quién tiene la corona del rendimiento, también se deberían preocupar de los precios 😛 Pese a que creo que en un segmento tan alto no se debe notar tanto esos 70 dólares. Lo que si quiero esperar es la respuesta de ATI Muajajajaja (Nótese el tono satánico)

——————-

Punto aparte se merece el review, que reviews más macanudos (OMG dije macanudo) he estado leyendo este último tiempo, felicitaciones Oscar y a todos los que te ayudaron 😀

memo 15 enero, 2009 - 22:05

interesante…gracias por darnos estos reviews….de todas formas no me convencen tarjetas de vídeo tan cototas si ni se nota la diferencia al ojo humano…no consideraría comprar una de estas, …pero weno…igual buen review,,,se pasaron..como siempre

javierdihu 15 enero, 2009 - 22:01

ta super weno el review, felicitaciones a todos los que trabajaron en el. La tarjeta está wenisima, realmente anda filete, aún así es verdad lo que plantean al final de que para poder aprovecharla se necesita un monitor de altas resoluciones.

metalwolf 15 enero, 2009 - 21:24

bien interesante el review. Realmente ste tipo de vgas no se justifican si no juegas a resoluciones groseras. Felicitaciones por el trabajo realizado.

salu2!!!

Add Comment