Review Sapphire Radeon HD4870X2

Tarjetas de video hay para todas las necesidades y presupuestos. Desde las más humildes, destinadas a satisfacer las necesidades gráficas de los que juegan muy ocasionalmente o solamente desean sacarle partido a las características de aceleración de video de alta definición, hasta las más poderosas que usualmente premunidas de enormes sistemas de ventilación son las que se encargarán de obligarnos a comprar una nueva fuente de poder que dé abasto a las necesidades energéticas de nuestro juguete escupidor-de-frames-por-segundo.

La Sapphire HD4870X2 pertenece al último grupo, y hoy veremos que tal rinde en nuestros laboratorios al compararla con el chip más poderoso de la actualidad, el GT200 que va dentro de la NVIDIA GeForce GTX280. ¿Podrán igualar o superar los dos GPU RV770 dentro de la HD4870X2 el rendimiento del GT200?

Sapphire HD4870X2: Especificaciones

Como pueden ver en la tabla, la HD4870X2 es casi exactamente igual en las especificaciones a la HD4870: Mismas frecuencias, mismos procesadores de shaders, unidades de textura, ROPs,ancho de banda de memorias, etc. La única diferencia es en la capacidad de memoria, donde en vez de los 512MB de memoria que tiene la HD4870 se montan 2 GB, separados en dos grupos de 1GB asignado cada uno a uno de los RV770. Los núcleos gráficos no comparten la memoria (Crossfire no trabaja de esa manera), por lo que los contenidos de esta están duplicados en ambos grupos.


Pornografía tech: la tarjeta al desnudo

La caja del producto, siguiendo la tradición de Sapphire, es bastante sobria: del tamaño exacto y sin ventanas, blisters ni materiales especiales que eleven el precio final. La modelo de esta ocasión tiene el mismo estilo de las que aparecen en las otras tarjetas de la serie HD4000 de Sapphire, con un «lejano» parecido a Lara Croft. Definitivamente preferimos las chicas curvilíneas a los marcianos hermafroditas de las series anteriores. En el texto impreso, lo más destacado son los 2GB (2x1GB) de memoria que incluye la tarjeta.

El bundle a primera vista se ve generoso: Puente Crossfire para los que tengan bolsillos aún más hondos y quieran aparear esta HD4870X2 con otra tarjeta en modo Crossfire, adaptadores DVI-VGA, DVI-HDMI, S-Video-componentes y S-Video-RCA, adaptador de poder Molex a PCIe y PCIe 6 pines a PCIe 8 pines, y una colección de software que incluye 3DMark Vantage (para que puedan probar el poder sintético de la tarjeta recién salida de la caja: yo les recomiendo enchufar y jugar, a menos que sus amigos sean de los pocos que aún se sorprenden con 3DMark), DVD Suite, Power DVD y un disco titulado Ruby ROM que incluye una colección de demos de videojuegos. Hubiera sido lindo que se incluyera por lo menos un título popular completo. Todo sea por ofrecernos el precio más bajo posible.

Fuera de la caja, tenemos a la Sapphire Radeon HD4870X2 en sus voluminosos 27 centímetros de largo (el estándar de facto para tarjetas «poderosas»). El disipador con la Laracroftesca modelo la recorre de punta a cabo, anticipando que los dos GPU a bordo generan una buena cantidad de calor.

Al voltear la tarjeta vemos que el tradicional PCB rojo de las Radeon ha sido cambiado por un elegante negro, quizás siguiendo a NVIDIA que también cambió su verde tradicional por negro en sus tarjetas tope de línea. Las dos cruces de metal, que sirven para mantener bien pegado el disipador al GPU, evidencian la presencia de dos de estos; además, la tarjeta incorpora una placa de metal que aunque pareciera estar ahí para disipar el calor de algunos de los chip de memoria en realidad le está dando más robustez al PCB.

Como pueden ver, la Sapphire HD4870X2 tiene dos conectores de poder PCIe. Ustedes podrán encontrar curioso que tenga sólo dos conectores considerando que la HD4870 también tiene dos pero monta sólo un GPU (y en consecuencia consume teóricamente la mitad de energía); la explicación es bastante simple y es que los conectores PCIe de 6 pines son capaces de distribuir 75W, mientras los conectores de 8 pines son capaces de entregar 150W. Esto significa que sumando los 75W que entrega el slot PCIe tenemos una capacidad máximo de 225W para la HD4870 y 300W para la HD4870X2. Según AMD, el TDP de la HD4870 es de 157W (lo que significa que se sobrepasa apenas por 7W respecto a lo que podría entregar sólo un conector) y el de la HD4870X2 es de 286W (donde si se justifica el uso de un conector de 8 pines, ya que con dos de 6 pines sería insuficiente).

En cuanto a salidas, la Sapphire Radeon HD4870X2 tiene un conector Separate Video (adaptable a RCA o componentes con los adaptadores incluidos) y dos DVI-I Dual Link (adaptables a HDMI con el adaptador que también se incluye).

Nos armamos de paciencia, y tras sacar muchos tornillos podemos retirar el disipador y dejar al descubierto el PCB de esta HD4870X2. Destacan los dos GPU RV770, el chip puente PCIe PLX que permitirá que ambos procesadores gráficos trabajen en modo Crossfire y los ocho chips de memoria (de un total de 16; al reverso de la tarjeta vienen soldados 8 chips más).

Limpio de toda pasta disipadora y brillando como recién salido de la fábrica tenemos al RV770 y sus 956 millones de transistores. Si consideramos que la tarjeta tiene dos RV770 significa que el total de transistores sería de 1,912,000,000: un buen poco más que lo que tiene el GT200 (1,400 millones) o la 9800GX2 (1,508 millones).

Un dato interesante: la primera GPU propiamente tal, la Geforce 256 (lanzada allá por mediados de 1999) tenía 23,000,000 de transistores, un 1.2% de los transistores que tienen los dos RV770 de la HD4870X2.

Aquí tienen uno de los 16 chips Hynix GDDR5 de la Sapphire HD4870X2. Cada uno tiene una capacidad de 128MB, dispone de un ancho de banda de 256-bit y corren a una frecuencia de 900Mhz nominales – 3,600Mhz reales.

El puente PCIe PEX8647 será el encargado de comunicar ambos GPU mediante 48 lineas PCI Express 2.0 separadas en 3 conexiones PCIe 2.0 x16, una para cada GPU y la restante para conectarse al PCIe de la placa madre. Cada una de estas conexiones es capaz de mover 8GB/seg. Aunque en rigor ambos GPU operan de la misma manera que dos HD4870 conectadas via Crossfire, para el driver y para ustedes la tarjeta aparecerá como una sola.

La Sapphire HD4870 tiene regulación de voltaje digital, con fases dedicadas para cada GPU y conformadas por un inductor multifase (el componente VITEC que ven en la imagen), tres etapas para GPU y una para memoria.

El enorme disipador de la HD4870X2 luego de desmontar: pads de contacto para las memorias y un par de bloques de cobre que removerán el calor de cada GPU para luego dejar todo en manos del blower que moverá el aire a traves del sistema.

Cobre, puro cobre: Cada bloque disipador se encarga de evitar que los RV770 echen llamitas. En su momento la HD3870X2, primera Radeon de dos núcleos traía un bloque de aluminio y uno de cobre, pero al parecer el mayor consumo de RV770 hizo que los expertos de AMD decidieran usar dos bloques de cobre en esta versión.

Plataforma de pruebas

Usamos en Hardware:

  • VGA: Sapphire Radeon HD4870X2
  • VGA: Sapphire Radeon HD4870
  • VGA: NVIDIA Geforce GTX280
  • CPU: Intel Core 2 Extreme QX6850 (333×9, 3Ghz)
  • Memoria RAM: 4×1GB Corsair XMS2 CM2X1024 6400C4 a 800Mhz 4-4-4-12
  • Placa madre: Asus P5E (Intel X38)
  • Disco Duro: Seagate 7200.10 250Gb
  • Fuente de poder: Tuniq 1200W
  • Monitor: Viewsonic VX2255WMB

Y en Software:

  • Windows Vista Ultimate 64bit + SP1
  • Fraps 2.9.7
  • Crysis: Warhead 1.0
  • Call of Duty 4 1.5
  • Bioshock 1.1
  • Company of Heroes 1.71
  • Need for Speed: Undercover 1.0
  • Tombraider Anniversary 1.0
  • GeForce Driver Release 180.48
  • AMD Catalyst Driver 8.12

Metodología de testeo

Para nuestros reviews de tarjetas de video, ocupamos sólo pruebas de juego en tiempo real, de escenas seleccionadas por ser representativas del juego en cuestión (si es que hablamos de escenas interiores, exteriores, llenas de villanos, paisajes vacíos, etc, tenemos que jugar en todos esos lugares para ver que tanta diferencia hay entre uno y otro escenario) que monitoreamos segundo a segundo, para poder entender como los juegos consumen recursos segundo a segundo ya que así es como ustedes utilizarán el hardware en su casa.

Con nuestras nuevas gráficas ustedes podrán comparar con el video de la secuencia que mecanizamos y ver en que partes es cuando más se exige al hardware. Con esto podrán ver si el rendimiento es parejo, irregular, aceptable o de plano hace que tengamos que replantearnos nuestra compra. Estos nuevos gráficos también hacen que ustedes puedan si desean probar su propio hardware y constatar nuestros resultados (nuestra batería de savegames está disponible para todo aquel que los pida), ya que los reviews de MADBOXPC están planteados directamente desde la silla de los gamers: no más resultados irreproducibles.

¿Qué juegos probar? ¿Con qué configuración?

Para probar las VGA, elegimos juegos que sean representativos de la oferta que la industria tiene en la actualidad; los shooters en primera persona más populares: Crysis Warhead, Call of Duty 4 y Bioshock (representando distintos engines que se comportan de distinta manera tanto con el hardware como con los drivers), un juego de estrategia en tiempo real: Company of Heroes, un juego de carreras de autos: Need For Speed: Undercover, y un juego de aventuras en tercera persona: Tombraider Anniversary. Todos muy diversos en cuanto a visualidad, exigencia y jugabilidad, por lo que podrán observar mucho mejor el rendimiento general de los productos que analizaremos.

¿Y que configuración gráfica ocuparemos? Ya que estamos probando tarjetas de video de rango alto, los juegos los probaremos con las siguientes configuraciones:

Crysis Warhead: En Crysis: Warhead las opciones de calidad gráfica son diferentes a la del Crysis original; para tratar de obtener números que reflejaran una jugabilidad adecuada seleccionamos la configuración Gamer. Por mucho que este juego esté más optimizado que su antecesor, el uso de filtros castiga muy severamente el rendimiento por lo que no activamos ni anisotropía de texturas ni suavizado de líneas.

Call of Duty 4: Todos los detalles gráficos seteados en su máxima calidad, texturas Extra, 4 muestras de antialiasing (4xAA) y 16 muestras para filtrado anisotrópico (16xAF). Por suerte el motor de COD4 no es tan demandante y permite disfrutar del eye candy sin tener que sacrificar experiencia de juego.

Bioshock: Todos los detalles gráficos seteados en su máxima calidad, modo DirectX 10. Antialiasing desactivado. No olvidemos que el Unreal Engine 3 inicialmente no permitía el uso de antialiasing de ninguna manera, ya que su técnica de iluminación “deferred lightning” no era compatible con ello. Filtro anisotrópico utilizando 16 muestras (16xAF).

Company of Heroes: Shaders en calidad alta (desestimamos el uso de calidad DirectX 10 ya que tiraba el rendimiento al suelo sin entregar una mejora de calidad notoria). Todos los settings en su máxima calidad (excepto las texturas que fueron colocadas en High en vez de Ultra debido a un bug reconocido por Relic), filtros 4xAA y 16xAF.

Need For Speed: Undercover: Todos los detalles gráficos seteados en su máxima calidad, filtro antialiasing en 4xAA y corrección de anisotropía en 16xAA. Este juego ha sido bastante criticado por la poca calidad de sus sombras y la poca optimización que tiene su motor gráfico.

Tombraider Anniversary: Todos los detalles gráficos seteados en su máxima calidad, 4 muestras de antialiasing y 16 de filtrado anisotrópico.

Benchmarketeando: Resultados

Bioshock es un juego que antes de llegar a comparar que tanto rinden los dos núcleos RV770 rinde muy favorablemente con hardware AMD. La HD4870 casi exactamente igual que la poderosa GTX280, pero la sorpresa más grata viene cuando en vez de un núcleo utilizamos dos: La Sapphire Radeon HD4870X2 escala fuertemente sobre la versión de un GPU y supera comodamente a la GTX280. Esto es lo que me gustaría ver en todas las aplicaciones: multiGPU optimizado de buena manera.

El superventas de Activision, a diferencia de Bioshock no está tan optimizado para la serie HD4000 y muestra a la GTX280 siendo claramente superior a la HD4870. Afortunadamente para el fabricante de Sunnyvale Call of Duty 4 aprovecha muy bien Crossfire (sacándole buen partido a la existencia de dos GPU), por lo que el rendimiento de la HD4870X2 mejora mucho el de la versión de un GPU y supera holgadamente el rendimiento que es capaz de entregar la tarjeta más poderosa de NVIDIA.

Como no todo puede ser color de rosa en un review, aquí tenemos la primera aplicación donde no todo es tan ideal como le gustaría a AMD. En primer lugar, Crysis: Warhead es un juego estruja al máximo al hardware, por lo que sea cual sea el hardware que usemos el framerate obtenido no será impresionante, y en segundo lugar la escalada al subir de un núcleo gráfico a dos con tarjetas AMD es virtualmente nula, observándose incluso una ligera caída en el rendimiento. Malo malo, nadie quiere comprar una tarjeta de dos GPU que rinda lo mismo o menos que una de uno solo.

En Need for Speed: Undercover ocurre un poco de cada cosa: aún cuando las tarjetas AMD sacan muchos más FPS que sus pares de NVIDIA; de hecho vean como aún cuando AMD no vende la HD4870 como una mata-GTX280 (en sus presentaciones la compara siempre con la GTX260 además de tenerla a un precio similar) vence sin problemas con la tarjeta de un GPU a lo más poderoso que tiene NVIDIA disponible en este momento… pero por otra parte el rendimiento de la HD4870X2 es muy malo considerando su potencial y no logra escalar satisfactoriamente sobre la HD4870, dándose en este caso que 2<1 (?!). Estos son los puntos débiles de las tarjetas que nos gusta mostrar en los reviews (junto a los puntos fuertes, claro): muchos análisis sólo se guían por los juegos que sugiere el fabricante y no tantean en otras aplicaciones que no han sido tan optimizadas como es el caso de NFSU. Debemos mencionar eso si que este juego aún siendo parte de la franquicia NFS ha sido duramente criticado por su mala optimización y por el mucho hardware que pide para una calidad gráfica que no destaca por sobre otras ofertas del género de las carreras de autos.

Este juego no es muy amigo de AMD, arrancándose de la tendencia general y dándole una ventaja holgada al hardware de la empresa dirigida por Jen Hsung Huang. La Sapphire HD4870X2 escala pobremente sobre su hermana de un GPU, la HD4870, pero aún así no alcanza ni de cerca el rendimiento de la NVIDIA Geforce GTX280. De todas maneras, aún ganando por paliza en esta prueba la victoria de NVIDIA es más bien moral, porque este juego al no ser demasiado exigente en gráficos con cualquiera de las tarjetas probadas obtiene un rendimiento que va por encima de la máxima fluidez detectable, que podríamos decir está cerca de los 60 o 70 FPS.

Company of Heroes es un juego bastante diferente al resto, ya que está limitado por todos los componentes del sistema y usemos el hardware que usemos los resultados con la configuración que probamos son muy parecidos para todas las tarjetas. La HD4870 rinde técnicamente lo mismo que la GTX280 y esta lo mismo que la Sapphire HD4870X2. No sirve para ayudarnos en la decisión de compra, pero si nos ilustra que la realidad de cada juego es diferente (por lo que debemos siempre darle una vuelta a los reviews y no ver un gráfico nada más antes de partir a comprar).

N33d meg4hurtz? Overclock entonces

Tratando de llegar un poco más lejos, abrimos la utilidad Overdrive del Catalyst Control Center y movimos las perillas hasta que la máquina se colgó. Unos minutos después habíamos descubierto la frecuencia estable más alta de la tarjeta:

790 Mhz para el núcleo (vs 750 Mhz de fábrica, un 5.3% de aumento en la frecuencia) y 3,960 Mhz para las memorias (vs 3600 Mhz, un 10% de mejora). Estos números no son para morirse de la impresión, ya que en distintos foros he visto como han logrado más de 800 Mhz para el núcleo. Habrá que tener más paciencia y seguir probando.

Y bueno, como sé que a ustedes los overclockeros les gustan los números sintéticos para poder echar carreritas con los amigos, vean como mejora el puntaje de 3DMark Vantage después del overclock:

Un 4% en el puntaje total y un 4.7% en el puntaje de la GPU. No podemos esperar mucho más de una VGA tope de línea: para obtener frecuencias realmente interesantes habría que cambiar la solución de enfriamiento por algo un poco más exótico.

Comentarios finales

Las tarjetas de dos núcleos (al igual que las configuraciones de más de una VGA) me producen algunos sentimientos encontrados. El hecho de que muchas veces un gran poder de cálculo potencial se vea capado por una mala optimización de los modos multiGPU (en esta ocasión Crossfire, pero tengan clarísimo que a veces SLI también se cae duro) es algo que muchas veces queda oculto por los gráficos de rendimiento excepcional que presentan los fabricantes… gráficos de rendimiento excepcional en aplicaciones puntuales. Hoy en el laboratorio de pruebas pudimos constatar que de seis títulos muy populares dos sacaban un excelente partido de la Sapphire HD4870X2 entregando resultados sencillamente espectaculares, pero los otros cuatro o escalaban muy pobremente el rendimiento de una HD4870 común y corriente (que vale bastante menos) o lisa y llanamente desaprovechaban uno de los GPU por completo.

Con esto no estoy diciendo que la Sapphire HD4870X2 sea una mala tarjeta: de hecho los resultados que se ven en aplicaciones bien optimizadas no son buenos, sino que espectaculares; supera con mucha holgura lo que puede ofrecer el chip más poderoso jamás creado por NVIDIA, el GT200, siendo entonces casi justificable el precio que tiene (la Sapphire HD4870X2 es la tarjeta más cara del momento, los continuos ajustes de precio que han hecho NVIDIA y AMD hacen que hoy hablemos de 490 dólares en e-tailers americanos contra 370 dólares: un 32% más de precio para de un 20% a un 30% más de rendimiento en los casos particulares donde la tarjeta brilla) si lo que tienen ustedes son bolsillos hondos. e todas maneras un punto en contra relativo al precio es que sale más económico comprar 2 HD4870 regulares o ligeramente más económico 2 HD4870 1GB. Pronto veremos en las vitrinas la propuesta de NVIDIA para el segmento de los muy adinerados (la GTX295, también de dos núcleos), que probaremos en diversas aplicaciones también buscándole los puntos débiles, con lo que podremos saber quien se para mejor en el mundo de las tarjetas de más de un núcleo: AMD o NVIDIA, Crossfire o SLI.

Por ahora, la Sapphire HD4870X2 es la tarjeta más poderosa del mundo. Si quieren tener un computador muy caro y poderoso, esta podría ser la VGA de su elección perfectamente.

Related posts

Review Asus Zenbook Duo 2024 (UX8406M)

Review ASUS TUF RTX 4070 Super OC 12GB

Review Noctua NH-U14S TR5-SP6 [Refrigeración por aire para Threadripper]

28 Comment

kanutin 2 enero, 2009 - 11:08

@vulturize:
Ati Fan boy detectado :S

aniquilador 31 diciembre, 2008 - 05:03

amigo cesariomantiz: esta marca de tarjeta no es la mejor de ati ya que sapphire no da con toda la potencia de los gps ati en cambio las diamond viper si lo hace, y tienen mejor sistema de refrigeracion que las que las sapphire.

6iE.CR 31 diciembre, 2008 - 01:30

@Uber: Cuando mejoremos el monitor de la plataforma de reviews probaremos configuraciones de 3 o 4 GPU. Sino no vale la pena.

@Grungeman: Si, te debemos temperaturas y consumo. Se murió el tester, está en la lista de compras de 2009 🙂

Grungeman 31 diciembre, 2008 - 01:07

@momo: pq no recomiendas las radeon??? yo creo q te falta actualizarte en las nuevas tarjetas… lee los reviews con calma y es muy importante verificar los precios de lo que recomiendas, ATI/AMD está ofreciendo lo mejor en precio/rendimiento.
Con respecto a la 4870×2 no me impresiono mucho y pienso bastante parecido a cesariomantiz, por precio/rendimiento con la hd4870 tienes para hacer lo que quieras.
Saludos y felicitaciones como siempre por el review…
PD: Eché de menos temperaturas y consumo.

Uber 30 diciembre, 2008 - 23:57

como era de esperar la x2 no es mucha competencia para un GTX280 siendo que es una mono GPU :/, que tal un SLI (280) vs la HD4870 x2? O: pata la raj… para Ati xD , hay mas soporte de juegos para Nvidia que Ati.

por que no mejor hacen un review de 3 away SLI GTX280 vs Crossfire HD4870 x2 seria interesante Dx!!

saludosss.

F.E.A.R. 30 diciembre, 2008 - 20:47

a mi definitivamente me parece que las ATI HD 4XXX son excelentes VGA’s, lo que me duele es que por problemas que supongo son causados por los drivers, no siempre se les pueda sacar su potencial, por esa sencilla razón solo compro nVIDIA.

MadBox 30 diciembre, 2008 - 16:41

@gustavo (el original y quejoso): Claro ese es mi punto, usaremos resoluciones de 1920 para las tarjetas que valgan la pena durante el 2009, tampoco para todas, es estándar gamer se acerca más a un 1280 algunos con 1440. Sin embargo nunca queremos dejar a nadie de lado y la idea también es estrujar lo más posible el hardware.

gustavo (el original y quejoso) 30 diciembre, 2008 - 16:05

che, que buen ojo que tienen la mayoria, quieren probar sus juegos a Full HD en un monitor de 26 pulgadas

alguno de aca sabe que un lcd de 42 pulgadas Full HD tiene la resolucion que ustedes piden?? y de hecho, la xbox360 y la play3 no pueden correr todos los juegos en esa resolucion?
no se si tendran monitores de 26, pero yo use uno wide, jugando con una resolucion de 1440 y detalles al mango (una 9800gtx) y el ultimo call of duty se ve barbaro… y por lo que se, el crysis en 1440 con esa placa, no corre al mango, pero casi, y tambien se ve barbaro

me parece que pedir como estandar una resolucion full hd es una locura… coincido en que las resoluciones tienen que ser 4
1280 para los que tenemos monitor de 19 o 20, tal vez 22 y una placa como la 9500 o la 8600 de nvidia
1440 para monitores desde 19 hasta 24 o incluso 26 y una placa como la 9600 o la 8800
1680 para monitores 22 en adelante y una 9800 o similar
1920 para monitores de 26 y una placa a la altura de semejante resolucion

convengamos que la 8600 (que la estoy considerando como gama baja) no es de hace 4 años, es de mediados del año pasado, tiene poco mas de un año y medio nomas

asdas 30 diciembre, 2008 - 16:00

@momo: sin objetividad lo que dices, y en que podría ser? acaso se cae, se congela, pantallazos azules, inestabilidad?

cesariomantiz 30 diciembre, 2008 - 14:18

ooooooo se me olvido esperando que se quite el rodaje no apure

cesariomantiz 30 diciembre, 2008 - 14:12

bueno lo inportante es a mi gusto la fluides dentro de resoluciones normales o sea 1280 x 1024 con un monitor de 22 ,mientras mas grande la pantalla mas lejos el usuario y a mi gusto no tiene brillo
otro punto es la 4870 simple , no arroja malos resultados en comparacion con la x2 en cambio nvidia esta con su modelo gtx280 muy cara a mi pareser, sin una gran notoriedad
y por otra parte una ves en el foro de O.C pregunte por el oc de targeta ati de fabrica en la opcion de ati overdrive y me dijeron que no respondia la tienda o sea es un riesgo darle a overdrive de ati abria que esperar un año y despues pitearsela
quiza este equibocado por no saber que tanta diferencia tiene un frame de otro pero segun el grafico esta bien la 4870 o sea me quedaria con la 4870 de un gb por 100.000 lucas menos y una resolucion normal
si estoi equibocado diga nomas

vulturize 30 diciembre, 2008 - 14:09

ha despues de todo es la mejor tarjeta del momento y eso q dicen lo contrario pues yo digo q no recomiendo la GTX280 ya que el SLI es un ASCO! y por cierto como van a criticar a la 4870 X2 en juegos optimizados para Nvidia?? LA 4870 X2 es la mejor tarjeta y se muestra indicios de la proxima 5870!!!

6iE.CR 30 diciembre, 2008 - 12:38

Y respecto a los gráficos, los arreglaremos dentro del día. En rodaje, no apure 😛

6iE.CR 30 diciembre, 2008 - 12:37

Para los que piden resoluciones más altas: Nuestras máquinas de pruebas 2009 tendrán un monitor más moderno, no se preocupen. Para este review lo que les puedo decir es que considerando toda la info que anda dando vuelta acerca de la HD4870X2 a resoluciones más altas su rendimiento cae en menor medida que el de la GTX280.

Saludos!

Hombre Pipa 30 diciembre, 2008 - 12:33

Wow! Tanta plata para tan poca ganancia, porque ahí se habló de un 30%+/-, pero solo en los juegos que se aprovecha el multiGPU. A menos que se masifique (o se aproveche) el MultiGPU, no lo justifico mucho 😛

Consejo: Que los gráficos dieran esos «loops» me desconcentraba 😛

JVortex 30 diciembre, 2008 - 12:18

@ravewolf: No siempre, porq no tiene soporte para PhysX, y cuando se masifiquen los juegos con PhysX … verás que la 4870 no la llevará tanto 😀

ravewolf 30 diciembre, 2008 - 12:00

la lleva la 4870

Noir 30 diciembre, 2008 - 11:51

@.: ArKaNoX :.: Como dice marcelo, importa la resolución. 1680×1050 se convertirá en el estándar para jugar a calidad media, mientras que 1920×1080 será el tope de gama. Recuerda que los reviews del sitio están apuntados a gente y uso real en ambientes aterrizados.

Sl2

jorge 30 diciembre, 2008 - 11:41

Me parece bien el tamaño del monitor, a juntar lucas

MadBox 30 diciembre, 2008 - 11:02

@.: ArKaNoX :.: Simplemente por que nos imaginamos que en un monitor de 32″ a medio metro de tu escritorio es incomodo para jugar, según la gente que nos visita, aún el 50% tiene resoluciones inferiores a 1280×1024. el 2009 empezaremos a realizar reviews con resoluciones de 1920×1080, en cualquier caso lo relevante no es el tamaño del monitor sino la máxima resolución posible.

lord_z 30 diciembre, 2008 - 10:54

@benjamin spencer:

para que comparar cuna vga para gamer contra una vga de diseño ?? si las colocas a correr algun juego gana la de ati las Quadro® no son para juegos

.: ArKaNoX :. 30 diciembre, 2008 - 10:33

también considero impresentable un monitor de 22» para estas tarjetas pero aparte de eso me gusto el review, una sola critica los graficos q aparecen y despues de un rato desaparecen para volver a a aparercer sin ningun cambio son un poco molestos y no tiene gran sentido

benjamin spencer 30 diciembre, 2008 - 10:30

me encantaría ver como se mueven todas esas tarjetas contra la Quadro® FX 5800

Noir 30 diciembre, 2008 - 10:19

Definitivamente preferimos las chicas curvilíneas a los marcianos hermafroditas de las series anteriores. <--notable.

dan 30 diciembre, 2008 - 10:07

Usaron un monitor de 22″ para esa bestia, la verdad impresentable.

gustavo (el original y quejoso) 30 diciembre, 2008 - 09:58

muy linda che, igual, por lo que sale, mejor esperar que baje el precio =D
che, el nfs undercover es optimizado para el ojete, no? digo, consume igual que el crysis y por lo que vi en videos, no es una guazada en graficos

momo 30 diciembre, 2008 - 09:40

Realmente las radeon son como la callampa, tienen problemas con software graficos yo no la recomiendo por eso prefiero la nvidia

saolim

Aldo 30 diciembre, 2008 - 08:48

No le mostraron en cuanto a temperatura de la tarjeta de video en el review, siendo esos unos de los problemas pirncipales de ati, lo cual me extraño lo demas muy bueno, creen que con un crossfire de dos tarjetas de 1 giga sacara mejor rendimento que una de 2 gigas??

Add Comment