Review NVIDIA GeForce GTX 480 (Fermi)


El día ha llegado, finalmente «Fermi» hace su aparición en MadBoxpc, luego de mucho esperar, retrasos de aduanas, inconvenientes de por medio, les traemos un completo review de la GeForce GTX 480. Aquí podrán verla ante sus contendoras de AMD, ante la antigua tope de linea de NVIDIA, pruebas de DX10 y DX11, comparativa de imagen, consumo, overclock, etc… Obviamente aquí, en MadBoxpc.

Como todo nuevo producto, Fermi estuvo rodeado de muchas noticias, rumores y especulaciones, todo ello agravado por los constantes retrasos de su fecha de lanzamiento hasta una «fallida» o mas bien «simpática» presentación por parte de Jensen en donde se mostró al público una «maqueta» de cómo sería una tarjeta de la familia Tesla basada en «Fermi». Luego de rumores sobre sus especificaciones vinieron los relacionados con su precio, algunos decían que iba a costar $700USD otros que mucho más,  sin embargo, con el tiempo se aclararon las dudas gracias a las filtraciones de siempre. Posteriormente fué la misma NVIDIA quien comenzó a revelar información y detalles de su nueva tarjeta, tal vez para calmar las pasiones de muchos que veían en Fermi un elefante blanco.

Pues bien, ahora les traemos directamente a sus monitores o LCD el review de la que promete ser «El GPU más rápido del Mundo«, tomen asiento y a leer el review de «Fermi» la GeForce GTX480, cortesía de MadBoxPC.com

Si ustedes son fieles lectores de MadboxPC, recordarán que hace ya un tiempo publicamos un artículo técnico titulado “Arquitecturas: NVIDIA GeForce GF100 “Fermi” vs ATI Radeon HD 5800 “Cypress” donde explicamos de manera profunda y detallada la arquitectura que NVIDIA había desarrollado para sus tarjetas graficas GeForce GTX 480/470, arquitectura llamada “Fermi”, por lo tanto, vamos a enfocarnos a realizar un pequeño resumen con el cambio en la arquitectura que realizó NVIDIA para poder lanzar lo más pronto posible un producto que ya tenía meses de retraso. Comenzaremos con una tabla de especificaciones para tener una referencia con lo último que ofrece AMD y la misma NVIDIA.

Revisada las especificaciones, lo primero que debemos mencionar y que representa el cambio más notable dentro de lo que habíamos anticipado en el artículo anterior sobre la arquitectura “Fermi” en la cual se basan las tarjetas GeForce GTX 480/470, es la reducción que hizo NVIDIA en el numero de “CUDA Cores” (anteriormente llamados Stream Processors ) ya que originalmente la arquitectura consideraba 512 de estas unidades, pero NVIDIA deshabilito un bloque de Streaming Multiprocessors (SM), el cual contiene 32 CUDA Cores, resultado en que el modelo GTX 480 sólo posea 480 CUDA Cores.

Para el caso de la GeForce GTX 470, el asunto es similar puesto que en este modelo NVIDIA deshabilitó 2 bloques de Streaming Multiprocessors (SM) dejando a este modelo con 448 CUDA Cores. En ejemplo lo pueden ver en la grafica anterior cortesía de nuestros amigos de techpowerup. En rojo el SM deshabilitado en el núcleo de la GTX480, aunque pueden ser cualquiera de los 16 unidades SM presentes dentro de la GPU.

Si desean ver con más detalles que elementos, además delos 32 CUDA Cores, contiene un bloque SM, vean la siguiente imagen. (clic para ampliarla)

La reducción en el numero de SM y CUDA Cores en el núcleo GF100 incorporado en las tarjetas GTX 480/470 tiene sus beneficios y contras, entre los contras tenemos que las tarjetas obtienen un rendimiento por debajo de los proyectado originalmente, tanto en tareas de computo como en operaciones gráficas altamente demandantes, esto al carecer de un bloque de SM que albergaba 32 CUDA Cores, el respectivo PolyMorph Engine, las unidades de textura , cache y otras unidades especializadas dentro de cada núcleo.

Por contrapartida el beneficio para NVIDIA de deshabilitar una de estas unidades llamadas SM, es que obtiene un chip que reduce su consumo, y por lo tanto, también se reduce la disipación térmica y el ruido en la refrigeración y otro beneficio estratégico, es que le da a NVIDIA la posibilidad de poder lanzar más adelante una tarjeta de alto rendimiento con más potencia que las actuales, y que incorpore los 512 CUDA Cores que se habían planificado originalmente.

En resumen este es el único cambio que hizo NVIDIA en la arquitectura de sus tarjetas. Ahora, si quieres interiorisarte del resto de los detalles de la arquitectura te recomiendo que leas el articulo técnico publicado anteriormente en este enlace.

Primera Mirada

Comenzamos la galeria fotografica con una foto de la protagonista en primer plano, se aprecia su acabado plástico negro con mezclas entre brillante y mate, en conjunto con ese pedazo de metal con el logo de NVIDIA que pronto sabremos de que se trata.

El reverso de la tarjeta a diferencia de sus antecesoras GTX 200 o como las HD5870 o HD5970 no posee una placa metalica que cubre y protege el reverso.  Gracias a ello se aprecia la disposición de los chips de memoria (12 en total), las fases de poder y los puntos de soldadura de varios componentes.

El panel de conectores de la tarjeta, tenemos 2 DVI-i Dual Link con capacidades HDCP y un puerto HDMI, arriba está la rejilla de ventilación, hay que decir que sale harto aire caliente por ella.

Los conectores de poder, necesariamente se tienen que utilizar ambos (6 y 8 pines)

Los heatpipes del disipador, son 5 y se calientan en demasía. Junto a ellos tenemos los conectores para hacer SLI y 3-Way SLI aunque tambien se puede hacer 4-Way SLI (en cierta placa EVGA).

Un acercamiento a la placa metálica, posee cierto relieve asimilando un disipador, la verdad es que se calienta harto pero le da un toque elegante al mezclar los colores.

Una fotografía junto a su contendora «directa» la Radeon HD5870, se aprecia que el tamaño es similar. La elección de la mas bonita queda a criterio personal.

Una fotografía de como lucen ambas tarjetas en sus conectores, la Radeon HD5800 posee una pequeñisima rejilla de ventilación priorizando las salidas de video (2 DVI, HDMI, DisplayPort)

Para concluir con las fotografías, una de las partes traseras, la Geforce GTX480 posee una placa metálica que circunda todo el PCB sobre la cual se sujeta la carcaza de plástico negro, a diferencia de la ATI que está directa entre PCB y placa trasera.

Luego de haber visto la tarjeta por fuera, veamos como luce por dentro…

Mirada a Fondo

Ya conocimos a la GeForce GTX480 por fuera, es tiempo de sacar los tornillos y verla por dentro. En primer lugar quitamos esa carcaza de plástico que presenta y la tarjeta luce de la siguiente forma.

Como se puede apreciar, esa placa de metal que sobresale y destaca en el frontis de la tarjeta es parte del disipador, es por ello que se calentaba tanto. Al estar sobre las aletillas sirve como canalizadora del flujo de aire que tira el ventilador tipo blower (Delta).

Luego de retirar el disipador del GPU se puede apreciar de mejor manera la placa metalica que cubre la tarjeta en su totalidad, la cual solo deja espacio para los elementos mas grandes como los capacitores y reguladores de las fases de poder (6).

Una fotografia al disipador de la GTX480, conformado por los 5 heatpipes que se unen en la base haciendo «contacto» con el GPU, el contacto no es el mejor o el esperado, es por ello la gran cantidad de pasta disipadora. Nos hubiese gustado un acabado mas prolijo, al estilo de algunos CPU Coolers que utlizan el mismo sistema, pero bueno, no somos los diseñadores.

Removiendo la placa metalica vemos los pads de contacto de las memorias y elementos reguladores (Mosfets).

Ahora en solitario la GTX480 completamente al desnudo, su PCB nos recuerda a la GTX 295, claro que solo considerando uno de los 2 PCBs que la conforman (no la single pcb). Esto es, hablando en términos de layout.

Una fotografia de las memorias, a pesar que se intentó por todas las formas de que saliera su serigrafia no se pudo. De todas formas estamos ante chips SAMSUNG GDDR5 K4G10325FE-HC04, cuya frecuencia de trabajo es de 1250MHz (2500Mhz DDR – 5000Mhz efectivos), estas vienen configuradas a 1848Mhz (924Mhz). Al tener 12 chips montados, esta tarjeta incorpora 1536MB con una interface de 384bits.

El chip CHiL encargado de controlar el voltaje para el GPU y el VPLL. Soporta monitoreo via sotfware.

Este pequeño chip pareciera ser el encargado del voltaje para las memorias.

Luego de ver a la tarjeta tanto por fuera como por dentro, es hora de pasar a ver como rinde.

Plataforma de Pruebas

Para poner a prueba esta nueva tarjeta de video del gigante de Santa Clara, utilizamos las siguientes piezas de hardware y las acompañamos de los siguientes softwares.

Hardware

Software

  • Windows 7 Ultimate x64
  • AMD Catalyst 10.3
  • NVIDIA Geforce 195.15 (GeForce GTX295)
  • NVIDIA Geforce 197.41 (GeForce GTX480)
  • Unigine Heaven 2.0
  • 3DMark Vantage 1.01
  • FarCry 2
  • Call of Duty Modern Warfare 2
  • Battlefield BadCompany 2
  • Resident Evil 5
  • Race Driver GRID
  • Colin McRae DiRT 2

Consideraciones

Todos los juegos fuerons ejecutados a resoluciones de 1680×1050 y 1920×1200, el nivel de detalle se configuró al máximo permitido por cada juego y el filtrado fué siempre de 4xAA 16xAF salvo en el caso en que se señale lo contrario.

Las pruebas se realizaron fuera de un gabinete con una temperatura de habitación rondando entre los 17-18 ºC. Las tarjetas, asimismo el sistema, solamente se mantuvieron ventiladas con sus coolers de fábrica, no se utilizaron ventiladores extras y la velocidad de los ventiladores de las tarjetas de video era controlada vía drivers de forma automática.

Pruebas Sintéticas

La prueba sintetica por excelencia ultimamente, 3DMark Vantage toma todo el potencial de tu tarjeta de video y lo usa para renderear escenas con una calidad de visual realmente buena. En este aspecto ver correr este bench en estas tarjetas es genial, de todos modos la GTX 480 obtiene un buen puntaje, ligeramente superior a la HD5870 pero muy por debajo de la HD5970.

Pruebas Reales

A resoluciones normales vemos como la Radeon HD 5970 barre el piso con la competencia, sacándole una jugosa ventaja a la GTX 480 y 295.

Subiendo a 1920×1200 vemos cómo la diferencia se acorta, pero aún mostrando una gran ventaja hacia el lado rojo de la fuerza.

En Resident Evil 5 la cosa se pone mucho más pareja y podemos notar cómo la GTX 480 supera sin esfuerzos a la HD 5870 e incluso le hace una seria competencia a la HD 5970.

Más se nota lo mencionado anteriormente al aumentar nuevamente la resolución. De cualquier modo todas las tarjetas entregan resoluciones más que agradables para este horrible título.

En Crysis la cosa es pareja para todos a 1680×1050. Ninguna tarjeta supera los 60FPS, siendo la GTX 480 quien mejor lo aguanta considerando que es un sólo GPU.

A 1920×1200 nuestra GTX 480 se mantiene fuerte y pierde mucho menos rendimiento que las tarjetas de ATI.

Al saltar a Dirt 2 -el caballito de batalla de ATI- vemos con agrado cómo la GTX 480 se mantiene fuerte incluso en títulos ultra hiper mega optimizados para las tarjetas de AMD.

Se repite la historia a altas resoluciones con Fermi avanzando imparable como un tanque.

En Far Cry 2 la ventaja sobre la HD 5870 se percibe menos, siendo la HD 5970 la única que escapa a la furia de Fermi gracias a su configuración doble GPU.

Con resoluciones mucho más altas la ventaja para ATI se acorta un poco más, con tanto la HD 5870 como la GTX 480 bajando unos 15 FPS.

En Metro 2033 (El Crysis del 2010)  tenemos a todas las tarjeas luchando por entregar una experiencia de juego digna, donde ni siquiera una configuración multi GPU entrega más de 60 FPS.

Para qué hablar de correr el juego a 1920×1200, donde la GTX 480 entrega a duras penas un framerate jugable y la HD 5970 supera por poco los 40 FPS.

En Racedriver: GRID nos sobra VGA y vemos como todas entregan un excelente desempeño, con tan sólo 9 FPS a favor de Fermi por sobre la HD 5870.

La diferencia se mantiene al aumentar las resoluciones, nada nuevo bajo el sol.

En Modern Warfare 2 la GTX 480 tiene casi el mismo desempeño que la HD 5870, por lo que si es lo único que jugarás da lo mismo cual te compres.

Y extrañamente si aumentamos la resolución ATI toma una ligera ventaja sobre NVIDIA, parece que las tarjetas rojas se llevan bien con los ports consoleros.

Calidad de Imagen: ATI vs NVIDIA

La guerra en DX11 ha comenzado ya que ambas empresas poseen productos que soportan este nuevo formato de render. Es por ello que quisimos hacer algunas pruebas para ver la influencia en benchs y juegos, además de poner a prueba la calidad de imagen (IQ) entre los 2 competidores, esto muchas veces es subjetivo por lo cual no daremos un veredicto sino que quedará a su apreciación.

DX10 vs DX11

Unigine Heaven DX10
Unigine Heaven DX10
Unigine Heaven DX11
Unigine Heaven DX11

En UNIGINE HEAVEN el cambio entre  usar el motor DX10 y DX11 es notable, se aprecia a simple vista en todos los detalles. De igual forma el impacto en los FPS, claro que al tratarse de tarjetas de gama alta su impacto en los frames es poco, pero existe.

Calidad de Imágen

Algo sumamente personal y subjetivo es la calidad de imagen, aunque a veces es bien notorio. Para ello configuramos la máxima calidad en filtros e imagen que permitieron los drivers por cada tarjeta, tanto AMD como NVIDIA y luego sacamos capturas de pantalla de algunos juegos tratando que sean en el mismo lugar.

HD5800 BF BadCompany 2
NVIDIA GTX 480 BF BadCompany 2

Ahora veamos otro jueguito

ATI HD5800 COD MW2
NVIDIA GTX 480 COD MW2

Finalicemos con un último juego

ATI HD5800 DiRT2 DX11
NVIDIA GTX 480 DiRT 2 DX11

Para estas pruebas configuramos en los drivers los filtros al máximo permitido en todo. Todas las opciones de Eye-Candy posibles fueron configuradas al máximo, de esta forma comprobar cual es la empresa que entrega la mejor calidad posible. Aqui no estamos midiendo jugabilidad sino calidad visual.

Hay que mencionar que NVIDIA introdujo una nuevo nivel del Transparency Supersampling con un valor de 8X MSAA, esto permite lograr bordes y alisados en objetos casi imperceptibles a la vista, de esta forma la imagen luce mas real. Sin embargo al activar esta opcion, la jugabilidad decae enormemente, posee un castigo en FPS que no se ve reflejado en mejoras realmente notorias en la imagen. Además integró un nuevo valor de CSAA: 32x, esto añade 8 niveles de sampleo de Antialiasing extras a la anterior (16xQ) logrando mejores alisados.

Luego de ver las capturas de los juegos, es tiempo que ustedes decidan cual se ve mejor.

Temperatura y Consumo

La verdad, desde que se lanzó esta tarjeta e inclusive antes se comentaba por todos lados sobre su temperatura y su consumo. Luego al momento que se lanzaron, los muchos reviews que aparecieron hicieron eco de ello y reafirmaron las dudas y temores de los usuarios, la tarjeta se calentaba como el infierno y consumía demasiado.

Temperatura

El problema de temperatura era debido a que, la curva de relación entre Temperatura y Velocidad del Fan era muy lenta, o sea, reaccionaba lento en base al aumento de temperatura. Esto lo comprobamos ya que al finalizar las pruebas de juego, o sea, al dejar de jugar tocábamos la tarjeta y esta hervía.

Decidimos comprobar como es la curva de respuesta del Fan ante la temperatura y obtuvimos los siguientes valores.

Fan AUTO, Temp máx 94ºC

Como pueden apreciar, cuando la tarjeta logra 94ºC el fan apenas se alza en un 60% de operación. Qué temperatura esperaba tener para subir más?

Luego de ello configuramos el Fan al 100% y comprobamos la curva de caida y de estabilidad de temperatura bajo carga.

Fan 100%, Temp @ 63ºC

Ahora tenemos una temperatura decente para poder operar sin problemas, pero agregamos el ruido provocado por el ventilador que está al 100%, el cual no es en exceso ruidoso como el de las tarjetas AMD/ATI (secador de pelo), pero igual molesta.

De todas formas, NVIDIA liberó una actualización de la VBIOS con lo que esta curva se mejora por lo que no sufriríamos de calor en exceso sino que el Fan actuaría de mejor manera, además de mejoras internas y de consumo. No se preocupen que las tarjetas GTX 470/480 que salieron a la venta cuentan con la nueva VBIOS (70.00.1A.00.02), por lo que no necesitarán actualizarla.

Consumo

Esta es otra de las preocupaciones de los usuarios con respecto de estas tarjetas, es por ello que cogimos nuestro Consumímetro (Patente Pendiente) e hicimos las pruebas pertinentes. Antes que vean los números, les advertimos que son de la plataforma completa, no corresponden al consumo propio de las tarjetas de video.

Como pudimos observar del grafico de consumo, la nueva tarjeta de nvidia consume y harto, es por ello que recomiendan tener una fuente de poder de 650W con una buena cantidad de amperes en la linea de 12v. Asi que si tienes una fuente Omega o de esas con luces por todos lados, ni piensen en comprarse esta tarjeta.

Overclocking

Overclockear la tarjeta no es tan complicado, lo malo es que hay pocas utilidades que la soportan actualmente, en este caso utilizamos la única que de forma oficial la soporta que es provista por EVGA, estamos hablando del EVGA Precision, que en su ultima versión (oficial) soporta las nuevas GTX470/480. Otra utilidad es el MSI Afterburner, pero aún no sale la versión oficial, sino que se encuentra soportada en una versión beta especial.

Hay que mencionar que esta familia de tarjetas (Fermi) poseen la relación entre GPU Clock y Shader Clock linkeada, o sea, que a medida que subimos uno subimos el otro en la relación existente, la cual es de 1:2, esto quiere decir que por cada Mhz que modificamos en el GPU Clock, modificamos 2 Mhz en el Shaders Clock.

Este fué el overclock logrado de forma 100% estable, como pueden ver de la captura, aumentamos de forma manual la velocidad del Fan al 100% para de esta forma evitar inestabilidad por culpa de la temperatura. Con esta configuración corrimos nuevamente las pruebas y obtuvimos los siguientes resultados.

OJO: no modificamos el voltaje del gpu ni de las memorias, solamente movimos los sliders para modificar las frecuencias.

Como pudimos apreciar, en muchos casos con overclock la tarjeta se despega mucho mas de la HD5870 y se acerca peligrosamente a la HD5970, superandola en pocas ocasiones. Realmente un aumento de frecuencias beneficia a esta nueva arquitectura, sin embargo su consumo y la necesidad de tener un ambiente refrigerado es crucial.

Palabras Finales

Tarde pero llegó. Los 6 meses más largos que jamás haya vivido Jen Hsun Huang llegaron a su fin, y luego de darle la «oportunidad» a su competidor directo (AMD) de lanzar productos con su nueva arquitectura liderando TODOS los segmentos de precio, ha presentado de manera oficial a los consumidores los primeros ejemplares basados en su arquitectura de nombre código Fermi.

Los resultados que observaron en las páginas anteriores son bastante claros: en la mayoría de los juegos la GTX 480 rinde varios puntos porcentuales más que la HD 5870, por lo que en el rigor del papel «es el GPU más rápido del mundo». Esto, claramente debe sopesarse adecuadamente con el precio que tiene, ya que no nos parece tan evidente que un jugador (descartando fanbois) en su sano juicio quiera invertir un 25% más de presupuesto para tarjeta de video con el objetivo de lograr un 10% más de rendimiento. La comparación contra la HD 5970 tampoco procede, ya que aunque destroza el rendimiento de la GTX 480 vale un 40% más.

El paso que está dando NVIDIA es coherente con sus desarrollos anteriores: la GTX 480 teniendo un sólo GPU es más rápida que la GTX 295 que monta dos; probablemente a futuro también veamos un monstruo de dos cabezas basado en Fermi que sea muy, muy rápido… pero para eso NVIDIA va a necesitar tiempo y eso es precisamente lo que no tiene. ¿Por qué? Simple: hoy la GTX 480 es más rápida (y más cara) que la HD 5870, pero por otra parte AMD ha tenido 6 meses ya para perfeccionar la arquitectura por lo que es de esperarse que más temprano que tarde aparezca algo parecido a una «HD 5890» con arquitectura mejorada y frecuencias más altas, lo que le quitaría la corona a NVIDIA y además le pondría más presión de precio ya que movería a la HD 5870 varios dólares más abajo.

Todo esto suena a hardware-ficción, y sabemos que podemos equivocarnos, pero 6 meses en la industria del silicio pesan mucho y sobre todo si el resultado se ve relativamente «inmaduro» (como acusan el enorme tamaño del GPU, su TDP y el también gran y ruidoso sistema de ventilación que necesita para mantener a raya el calor) indicando que para mejorar esos factores se necesitará más tiempo aún.

Se agradece que la tarjeta sea fuerte en cálculo de propósito general (eso que ustedes han escuchado como GPGPU computing) y que también se hayan subido al tren de la teselación (algo que AMD hizo hace mucho tiempo), pero mientras no aparezcan más (y con más nos referimos a MUCHAS y POPULARES) aplicaciones de uso cotidiano que utilicen el poder de proceso del GPU, esto queda como un agregado y no como una característica definitoria del atractivo de los productos.

Esperamos pronto probar la GTX 470, que a primera vista al situarse justo en medio de las HD 5870 y la HD 5850 (tanto en precio como en rendimiento) podría ser la tarjeta gamer high end por excelencia.

Por ahora sólo podemos decir ¡POR FIN!. Se echaba de menos algo de competencia.

Related posts

NVIDIA RTX Remix se actualiza a DLSS 3.5 con reconstrucción de rayos

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

Samsung lanzó oficialmente la serie Galaxy Book4 en Chile

65 Comment

RSX 29 abril, 2010 - 16:22

da lastima la terminacion de la base del disipador de la 480GTX muy mal por nvidia al dejar asi de mal una parte no estetica sino que funcional eso agrega como 3-5C ¬¬

Hombre Pipa 22 abril, 2010 - 17:41

Aleluya Aleluya! XD Hasta que llegó, en todo caso es interesante el análisis que hizo Mario. Durante estos 6 meses obviamente ATI no se ha quedado con los brazos cruzados, por lo tanto, sí, quizás sea la GPU más rápida del mundo, pero el atraso creo que empaña mucho eso.

Para el feedback Mario, extrañé pruebas de GPGPU, fuera de eso, excelente review, como siempre 😉

RSX 29 abril, 2010 - 16:25

hay q esperar la posible 5890 pero segun parece ATI solo sumo streams y mejoro el gpu para tener tiempo para sus 6xxx que esta desarrollando desde hace tiempo, esperemos una arkitectura bastante buena y probada

Pipeee 22 abril, 2010 - 17:17

No se noto que el tipo que hizo el review era un Nvidia Fan boy (en Buena) ,seamos consecuentes y aunque les duela , diganlo , Ati ya paso de ser la Tarjeta barata que solo competia con Nvidia en cuanto a precio y que en rendimiento era asquerosa , ahora es la reina en tanto precio y rendimiento ,pienso y digo que el trabajo de Nvidia realmente es Desastroso ,pese a que tuvo 6 meses mas desde las salida de la serie 5000 y fueron en vano , podrian haber hecho un trabajo mucho mucho mejor , pero se dejaron estar y por lo menos yo era un Nvidia fan boy , pero compre ati y no me cambio por nada . Nvidia sucks !

Ovimaster 22 abril, 2010 - 12:26

Sencillamente el mejor y más completo review en español que se puede encontrar de Fermi. Muy claro muy objetivo, como todo producto tiene sus pro y sus contras, es un producto por lo demás que cumple con lo que dice ser y el tema de precios sencillamente es una cosa de costos, me imagino que en una linea de producción ya más experimentada sobre sus 5870 y 5890 AMD tiene la ventaja en costos.

WS 22 abril, 2010 - 11:31

¿Alguien a visto un review donde comparen la 480 con una 5870 que no sea referencial como la Asus Matrix o algún otro modelo que no tenga las restricciones que puso ATI/AMD?

sergio 22 abril, 2010 - 11:06

¡Excelente review!

kamusdj 22 abril, 2010 - 09:58

prefiero las ati… mejor rendimiento, consumo y tº xD… igual ta genial el review

LordScan 22 abril, 2010 - 08:42

Conclusion: no vale la pena comprarsela

Meow 22 abril, 2010 - 01:05

Muye buen review. Pero desde mi punto de vista le hechan demaciadas flores a Fermi durante el review, a pesar de que en algunas pruebas la HD5970 destroza la GTX480 mario escribe «En esta prueba fermi se mantiene como tanque» cuando en la grafica la HD5970 la destroza xD… En otros reviews en vez de eso dirian «Ahora vemos como la espera no sirvio de nada, corran por sus ATI» xD Mi simple opinion

MadBox 22 abril, 2010 - 01:11

nunca nos habían acusado de nvidia fan boys, tienes que ver que las diferencias de fps son marginales. también recordar que la 5970 es multi gpu. Pero no no somos fan de a ni de b 😉

Meow 22 abril, 2010 - 01:54

Ok, confiare en ustedes :B

PD: Puedo poner este review en una pagina de un evento de tecnología que estamos realizando?? obviamente aclarando que el review es de ustedes y con links a madbox

Meow 22 abril, 2010 - 01:56

PD: Aun así son muchas flores D:

cesariomantiz 21 abril, 2010 - 23:16

no esta nada de mal sus comentarios ,pero me atrevo a desir que saldran mas modelos de nvidia y les aseguro que otros fabricantes mejoraran las temperaturas y ruidos.
buen análisis madbox sigan así muy entretenido y despeja toda duda.
lamentablemente me enferme del síntoma de el bolsillo apolillado y según mi doctor dura 2 años.

transistor 21 abril, 2010 - 23:14

ATI foreber «empezo la era roja»…. «llevaremos a los verdes al mas oscuro rincon del universo» jajaja

ni fan

vulturize 22 abril, 2010 - 00:12

es como la historia de las legendarias 9700 y 9800 contra las fx5800 y fx5900 la historia se repite!!

vulturize 30 abril, 2010 - 16:07

o si no miren esto

Pho6oZ 21 abril, 2010 - 23:06

sencillamente excelente review, ya los hechaba de menos

harryccó 21 abril, 2010 - 23:04

Exelentisimus review! te felicito mario te pasaste, a quedado claro quien es el rey por el momento despues de largas 6 meses de atrasos y espera, se ha de esperar tambien el otro modelito faltante :p para su chequeo, aun asi en cuanto a dineral, temperatura y consumo se lleve la corono optimizada otra, me gusto eso de que las nuevas vgas nvidia tenga ya el ventilador con bios solucionado de fabrica, es por eso mismo y por todo esto que le otorgo a este review «el premio maximo de pruebas review vgedario xd y esperado durante todo el primer semestre del 2010» y como el mas interesante del año gamer en que estamos, saludos a toda la comunidad y empezar a juntar que no sera facil para cualquiera comprar una de esas.

GatitoMimosin 21 abril, 2010 - 22:04

Hola y despues de chekar este review no queda mas que felicitarlos
En cuanto a las opiniones que vierten algunos aqui me sorprenden…..
Nvidia con este producto se mantiene como la lider en tecnologias de video de computo
OTRA cosa porque no probaron en este review las capacidades PHSYX? el echo que ati no las soporte no quiere decir que las hagan; PHYSX es lo maximo y a eso apuesta fuerte NVIDIA con la serie 400 sin embargo el que hizo este review no la puso aprueba para nada
Evidentemene yo no podre comprar una gtx 480 pero el hecho de que salgan estas tarjetas y que ya se vendan en latinoamerica me da esperanzas que muy pronto estaran tambien a la venta la GEFORCE 440GT (que ojala lleguen a existir) ESE MODELO SI QUE ME VOY A COMPRAR….

cristoball 21 abril, 2010 - 22:01

Hay algo que es mentira, compararon e nun video el ruido en 100 porciento entre la ati 5870 y la nvidia 480 y 470, y la nvidia puta que tiene alta temperaturas, y ademas, el ventilador suena como un avion, en cambio ati, tiene un ruido mucho menor a nvidia en 100 porciento fan speed, si encuentro el video lo posteo

porcierto, no soy ati fan ni nvidia fan, aunque me gustan mas las nvidias 😀

InTelliEye 21 abril, 2010 - 21:52

A por la 5970 en un par de meses más, atentos a la venta de mi 5870 XT =]

Rolando 21 abril, 2010 - 20:48

Espero prontas noticias de AMD, como bien dice el articulo: «6 meses en la industria del silicio es mucho tiempo». Que sigue luego de la serie Cipress ?, alguna idea ?

rolox-z 21 abril, 2010 - 20:22

muy buen reviews mario… y Nvidia tiene el gpu mas potente de todos, pero ATI tiene el gpu precio rendimiento mas equilibrado.

vulturize 22 abril, 2010 - 00:06

Pero es menos eficiente energeticamente la 480 en cambio la 5970 teniendo dos chips es mas amigable con el medio ambiente y con el gasto de la luz!! al final la 480 de a de salir un ojo de la cara!!

Excelente review!! tenia q ser de madboxpc

victor 21 abril, 2010 - 19:57

buen review.. pero recomendacion es que en las imagenes de comparacion de dx10 y dx11 colocaran la misma imagen en la siguiente.. cosa de apreciar de mejor manera las diferencias (en la parte del cañon no las note mucho, en la otra solo es cosa de ver las piedras)

en todo caso, me gusto la 5970, no la habia tasado xD

kzuma 21 abril, 2010 - 18:24

off topic, vieron a cuanto piensan vender la 480 y 470 en pcofertas y bym?…. 360 lukas la 480 y 250-280 la 470!!!!….. no sera mucho?

nkeY 21 abril, 2010 - 18:34

Si cache xD. Hace tiempo ya. Pero piensa que es la primera camada, las pocas tarjetas que llegarán volarán como pan caliente por los fan boys, ¡tenlo por seguro!. A que empresa no le dan ganas de lucrar así, ¿negocio redondo?, eso si, mal para el que pague esa moustrocidad de plata.

kzuma 21 abril, 2010 - 18:58

si po, con esa plata (480) te compras la 5870 con una buena fuente de poder……
wns descarados (espero no pase lo mismo en sym xD)

Melkor 21 abril, 2010 - 18:21

por fin salio!!!!!!!!!1

Felicitaciones por el trabajo gente, de primera!

lo que mas me sorprendio es el rendimiendo …. pero el consumo … pues se fue muy a la ****** jejeje

jorge 21 abril, 2010 - 18:09

Interesanticimo este review me sirvio mucho pues quero comprarme una vga y una de las que tengo en mente el la 5870.

carlos 21 abril, 2010 - 17:39

Lo que no me cuadra es la ultima parte donde ponéis que la 5970 cuesta un 40% mas que la 480 por lo menos aquí en España cuesta un 5% mas si llega ya que la 480 la tienes desde unos 470 o 480 euros y la 5970 la tienes desde unos 500 euros, así que mononucleo o no lo que importa es el resultado y para gastarme ese dinero en una 480 por 20 o 30 euros mas me compro la 5970 cuya diferencia en rendimiento se nota.
Para ejemplo aquí podéis ver como la diferencia de precios es mínima:

https://compusevilla.com/radeon-hd-5970-2gb-gddr5-pci-express-hdmi-club-3d-p-1212.html

https://www.pccomponentes.com/POINT_OF_VIEW_GEFORCE_GTX480_1536MB_GDDR5.html

Aun asi sigo pensando que la mejor relación precio del mercado es la 5850.

qazser 22 abril, 2010 - 18:47

Pues siempre tienes que saber en donde comprar amigo..dices que eres de España,por aprovechate del $

Así lo haria yo:
https://www.amazon.com/Zotac-GeForce-384-bit-Graphics-ZT-40101-10P/dp/B003DTKU82 – Costo 499$

https://www.google.es/#hl=es&q=499%24+in+%E2%82%AC&meta=&aq=&aqi=&aql=&oq=499%24+in+%E2%82%AC&gs_rfai=&fp=ba8ea9fd6f4ef635 – 499$ son 372€

+15 euros gastos de envios…y la tienes a 100 euros menos ^^

feliz navidad anticipada

ashkelon03 21 abril, 2010 - 17:35

me dio risa cuando disen k con dx11 no varia tanto el rendimiento por ser tarjetaas de gama alta… en la foto se vee que tiene 7fps xD
https://www.madboxpc.com/wp-content/uploads/2010/03/uni-dx11.jpg

MadBox 21 abril, 2010 - 17:12

Para tener una idea 100% completa en español pueden dar la vuelta a la esquina y ver en el sitio vecino CHW la comparación también contra una HD5850

DJiNN 21 abril, 2010 - 16:40

Wow, sabiendo la temperatura que alcanza en velocidades stock, osan overclockearla? Eso se llama buscar problemas.

Además implica un gasto adicional: El aire acondicionado necesario para mantener viva a la tarjeta.

Un buen puñetazo en la cara a los responsables del diseño del disipador (GTX 470):

https://foro.noticias3d.com/vbulletin/showthread.php?t=326181

Les parece correcto que se necesite modear la VGA para que no muera antes de tiempo?

AztekWarrior 21 abril, 2010 - 16:13

por fiiiiiin uuuuuuuuuuffffff… larga espera para ver el review en madboxpc..

bueno bueno bueno… sopesando este review y viendo el poder, consumo y temperatura me queda decir que…

quiero una 5770 o una 5750 😀 jejejejeje..

Zerstrick 21 abril, 2010 - 20:11

Yo en cambio prefiero una HD 5830 que para un monitor de 22″ que es mi caso ofrece mejor rendimiento si tuviese uno de 19″ quizás la HD 5770 sería mejor opción

Dj Artanis 21 abril, 2010 - 15:57

Al fin el tan esperado review de madbox, me considero un fanboy pero sin duda que despues de este review vendo mi HD5850 para comprarme una HD5970.
Muchachos es hora de pensar en lo que de consumo energetico se refiere, tengo un i7 con una coolmaster de 1000 watts y si le monto esta vga a mi tarro, me van a terminar hechando de la casa y no es la idea armarse una plataforma de alto nivel para tenerla apagada, bien por AMD y bien por nosotros los consumidores, felicitacione excelente review.

Kaiser 21 abril, 2010 - 18:42

cuanto pides por la 5850??

KiusteR 21 abril, 2010 - 15:54

En cuestiones de OC creo que ATI la lleva, pues al consumir menos puede fácilmente escalar a temperaturas mayores sin problema, en cambio Nvidia ya se encuentra en temperaturas elevadas sin OC.

jeisson 21 abril, 2010 - 15:45

beneficio para NVIDIA de deshabilitar una de estas unidades llamadas SM, es que obtiene un chip que reduce su consumo, y por lo tanto, también se reduce la disipación térmica(magnobox)

¿¿¿¿no entiendo bien pero el consumo y el ruido de la disipacion termica son los puntos mas criticados de las targetas fermi??? comosera con las unidades SM actibadas

RSX 29 abril, 2010 - 16:20

es q mas bien que para reducir el consumo lo iso para sacar la 490 o 485 o 480+ por que si es por consumo/rendimiento es mejor tenerlos activos pero con los clocks un poco mas bajos q desactivar, nvidia qiere hacerle pelea a un 5890? y un weon precio de 600USS de la xxxGTX XD

hektor 21 abril, 2010 - 15:33

buenismo el review
ahora solo falta que llegen para ver su precio en el mercado chileno
ahi sabremos mas de esta tarjeta gracias a los usuarios del foro ya que todos no tenemos un corei7 y asi sabremos que tal andara en nuestros pcs

Rodrigo 21 abril, 2010 - 14:35

Corrijanme si me equivoco

Con una ATI 5xxx puedes conectar 3 monitores y sumarlos

con una GTX4xx necesitas hacer SLI para poder hacerlo

Yo sé que el 20% de los usuarios haria dicha tontera, pero acaso no es bonito almenos saber que puedes imaginarlo y es realizable?

nkeY 21 abril, 2010 - 18:25

Yo tengo una 5770 Vapor-X y jamás he podido conectar tres monitores desde una tarjeta, practicamente es imposible encontrar un adaptador DisplayPort Activo to DVI. Lo logré, pero haciendo Crossfire-X igual que si fuera Nvidia, con SLI, nice no?.

PD: El adaptador en amazon sale 70 dolarucos, nada despreciable.

jemb 21 abril, 2010 - 19:23

eyefinity???

estebandido 21 abril, 2010 - 14:25

Buenas!!! El gran avance de estas targetas es en en características profesionales (no incluidas en las vesiones de juegos)y de cómputo: no veo la hora de ver las versiones profesionales Quadro!!! Con Cuda se obtien un rendimiento MUUUYYYY superior al de la generacion anterior. Ahí si vale la pena, para un diseñadores, animadores, arquitectos, ingenieros, etc…Igual me encanta la aceleracion de físicas en juegos…le dan realismo increíble..
Excelente reviewww!! lo esperaba hace tiempo!!! Saludos!!!

gustavo 21 abril, 2010 - 14:08

muy buena review!!!

lo único a criticar, el consumo… se va a la mierda!
para mi, la fuente debería ser una de 750 reales en lugar de 650… me parece que con esa vas muy jugado… lo que no dijiste es cuantos amperes recomendas para el cable de 12v

giova 21 abril, 2010 - 14:01

Pos es mejor este tipo de reviews, porque ya se hacen cuando la plataforma tubo pequeños retoques, tanto a nivel de hard como de soft, pero a pesar que ahi algunas cosas que destacar con respecto a los reviews iniciales. Aun hay cosas que no creo que cambien, el consumo y el ruido, la temperatura parece que se soluciono.

Nvidia tiene que hacer un lavado de cara, a estado mas metida en lios con Intel y tratando de impletar CUDA, Physics etc, que me parece que ha dejado un poco de lado lo que la ha hecho grande. Asi que ojala venga una nueva revision y se apresuren o saquen las 5xx mas rapido sino pueden quedar muy mal parados con respecto a AMD.

XhouseX 21 abril, 2010 - 14:01

muy buen review me aclaro las dudas que tenia con respecto a esta tarjeta que por el precio y sus niveles de temperatura y consumo parami no vale la pena comprarla hasta que se mejore estos problemas y estoy pensando seria mente en comprarme una 5870 en vez de 480 que dejo con gusto a poco esperaba mas de fermi

Zerstrick 21 abril, 2010 - 13:51

Bueno la verdad se ve bien pero de verdad no creo que cumpla con mi requisito indispensable, precio-rendimiento, esperaré que Nvidia siga sacando las de gama media y alguna high low la mas baja de la gama alta a ver si ofrece lo que quiero, me gusto mucho el rendimiento con el OC de verdad que allí demostró que puede ser una buena rival, pero como no soy OC ni se hacerlo y me da hasta miedo por ahora sigo prefiriendo a ATI (lo dice un FanBoy Nvidia)

PD: sigo esperando… (no me decepciones Nvidia) xD

ravewolf 21 abril, 2010 - 13:03

hay que admitir que en ciertas pruebas rinde mejor la 480, pero esa pequeña ventaja se va a la cresta con el consumo y la temperatura, y hablando esteticamente, la hd5870 del boom se ve mas fina y ele9ante haha

Pablo 21 abril, 2010 - 13:02

Gracias por este review tan esperado. Espero que anden mejor las cosas por chile. Saludos.
PD: Podrían hacer una review «Core i5/i7 vs Phenom II», actualizado con lo ultimo que salio?

Oscar PC Gamer 21 abril, 2010 - 12:58

Quede sorprendido al ver en como todas las puebas le gana a la GTX295, impresionante por Nvidia, como «gamer» espero ver una tarjeta que mantenga los 60FPS a esas mismas resoluciones, para que mas FPS cuando el ojo humano no los «ve». De precio mas comodo, menos calor y menos consumo, esperar una GTX460 que satisfaga al consumidor y jugador medio. Tanto ATI como Nvida tienen muy buena oferta, mientras tanto ahorrar porque ahora mismo los precios estan muy elevados y mas si tambien toca cambiar de fuente…

Polaco 21 abril, 2010 - 12:54

los fanboys de nvidia estaran por lo menos en chile en peligro de extincion (?)

RSX 29 abril, 2010 - 16:17

x los incendios, explosiones y fuentes muertas JUAS!!

MaYnArD 21 abril, 2010 - 12:46

Nvida = CUACK!

Keru 21 abril, 2010 - 12:39

Nada mas que un:

«Notable…»

neonarutox 21 abril, 2010 - 12:17

Yo si note diferencias de colores, sobre todo en los vidrios lejanos de esas tomas similares, leves pero las hay, creo que hay una pequeña diferencia en mejor definicion de color de la Ati por sobre la nvidia, como dije muy leve pero la hay.

Saludos

RSX 29 abril, 2010 - 16:16

se nota mas la diferencia segun el monitor y a demas es muy subjetivo como se menciono pero ati parece tener mas profunidad en de imagen? aunque es mas cosa de monitores si es led lcd ctr….

EZ-Mouse 21 abril, 2010 - 12:17

aun me gusta mas ATI, menos energia y practicamente el mismo rendimiento, a lo mas 10~20 fps mas, que entre 100 y 120 el ojo casi ya no percibe

LostFlanders 21 abril, 2010 - 18:22

Claro, pero cuando empiecen a salir juegos más exigentes, si se va a notar la diferencia entre 10 y 30 FPS

Noir 21 abril, 2010 - 12:00

No noté las diferencias entre colores. Será porque tengo ATI ahora? (aunque si las notaba con la 6150).

Fuera de eso, excelente review como siempre Mario.

Alexis 21 abril, 2010 - 13:11

yo tengo una 3450HD y noto como mas brillo en nvidia..
aclaro.. estoy en linux.. capaz sea por eso.. xD

salu2

Add Comment