Review NVIDIA GeForce GTX 580

Se levanta el telón y les presentamos el review de la que promete ser la GPU DirectX 11 más rápida del mercado, la GeForce GTX 580, el nuevo tope de línea de NVIDIA. Como ya es usual en nuestras revisiones tenemos gráficos lineales, promedios, consumo, overclocking y un extenso apartado técnico-teórico para que no se pierdan de ningún detalle de esta nueva bestia. Bienvenidos a este nuevo review de MadBoxpc.

Esta es la tarjeta que debió haber sido la GTX 480 en un principio, un GPU con 512 CUDA Cores y con frecuencias que realmente le sacan provecho a esos procesadores. Con esta nueva tarjeta, NVIDIA viene a ponerle el hombro a la inminente salida de las Radeon HD 6900 de AMD, y por el momento ostentar la corona de tener la GPU más rápida y poderosa del mercado.

Estamos ad-portas de que se inicie la batalla DirectX 11 por el alto rendimiento single GPU, en este ámbito NVIDIA da el primer golpe de esta round. Los invitamos a ver este review y enterarse de todos los detalles, obviamente con la calidad que sólo MadBoxpc les puede ofrecer.

Antes de comenzar con las novedades a nivel de arquitectura, debemos mencionar que la GTX 580 se basa en el mismo diseño de la arquitectura “Fermi” de la GTX 480 y que describimos en profundidad en este artículo técnico y de manera más resumida en el Review de la GTX 480. Las bases y conceptos para comprender este apartado técnico están en ese artículo y para evitar redundancias te recomendamos –si no lo has hecho- que lo leas, de todos modos si ya estás familiarizado con la arquitectura puedes seguir leyendo.

GTX 580, especificaciones.

Para comenzar con este apartado técnico revisaremos los cambios y mejoras en las especificaciones del nuevo tope de línea de NVIDIA, la Geforce GTX 580, a continuación los datos oficiales proporcionados por NVIDIA.

Como podemos apreciar en la siguiente tabla de especificaciones la GeForce GTX 580 trae varias mejoras respecto a la GTX 480, de partida incrementa la frecuencia del núcleo de 700Mhz a 772Mhz, el motor de shaders ahora es más rápido con 1544Mhz respecto a los 1401Mhz de la GTX 480, las memorias también han incrementado su frecuencia desde los 3696Mhz a 4008Mhz, esto incrementa el ancho de banda de la tarjeta desde los 177.4GB a nada menos que 192.4GB/s. Por otra parte la inclusión de un bloque SM adicional le ha permitido a la GTX 580 desmarcarse en rendimiento geométrico de la GTX 480 con una tasa de relleno de pixeles y texturas por segundo de 49.408 Mega Texeles/s y 37.056 Mega pixeles/s respectivamente. Esto ayudado por los 512 CUDA Cores, 32 unidades adicionales respecto a la GTX 480.

En cuanto a consumo la GTX 580 logra bajar delicadamente el TDP respecto a la GTX 480, esto es bastante destacable considerando que la GTX 580 posee mayores frecuencias para sus tres componentes claves (núcleo, shaders y memorias), además de 32 CUDA Cores adicionales y sus respectivos componentes (Polymorph Engine) dentro del Streaming Multiprocessors adicional que contiene estos CUDA Cores “extras”. Aquí se notan las optimizaciones hechas por NVIDIA para optimizar el consumo con un fino trabajo a nivel de transistores, el cual ya detallaremos más adelante en este apartado técnico.

GTX 580: Mejoras en la arquitectura.

Mientras la nueva GeForce GTX 580 utiliza prácticamente la misma configuración de SM que la GeForce GTX 480, NVIDIA ha incorporado dos importantes mejoras las cuales van apuntadas a mejorar el rendimiento respecto a su predecesora en lo que se refiera a clock-por-clock. Una de las primeras mejoras es que la GTX 580 soporta filtro de texturas FP16 a full-speed, esto le permite a la GTX 580 poder manejarse con mejor desempeño en ciertos juegos que a nivel de textura son altamente demandantes. En segundo lugar tenemos que la GTX 580 soporta nuevos formatos “tile” (tile formats) que mejoran la eficiencia con la tecnología Z-cull que NVDIA incorpora en sus tarjetas desde las GeForce 3 y que mejora el rendimiento en los procesos de renderizado mediante la supresión de píxeles que no pasan la prueba de profundidad de Z. Adicionalmente a estas mejoras, la nueva GTX 580 incorpora más CUDA Cores y más SM (Streaming Multiprocessors) que la GTX 480, además de mayores frecuencias.

En la gráfica que hemos reciclado podemos ver a modo general el diseño de la arquitectura del núcleo GF110, la cual está organizada de la siguiente manera: tenemos en total 4 grandes bloques llamados GPC (Graphics Processing Cluster), cada uno de estos GPC contiene 4 bloques individuales llamados Streaming Multiprocessors (SM) para hacer un total de 16 SM, finalmente dentro de estos 16 SM tenemos 32 CUDA Cores. Ahora sólo es cosa de multiplicar el número de SM (16) por el numero de CUDA Cores (32) para obtener los 512 CUDA Cores, así: (32 CUDA Cores * 16 SM = 512 CUDA Cores). En la siguiente ilustración mostramos con más detalles el SM adicional que incorpora la GTX 580 además de todos sus componentes como cache, texturas y otros elementos.

Comparado con la GTX 480, esta tiene el mismo número de GPC (4), pero tiene un SM menos (15) lo que totaliza un total de 480 CUDA Cores. (32 CUDA Cores * 15 SM = 480 CUDA Cores). En definitiva esta cantidad de CUDA Cores es lo que originalmente la GTX 480 debió incorporar, pero el retraso y los problemas que tuvo NVIDIA para tener a tiempo la GTX 480, solo les permitió lanzar la GTX 480 con 480 CUDA Cores. El resto de los componentes se mantiene igual y sin cambios notorios, tal como lo desmenuzamos en el respectivo articulo técnico.

GTX 580: Mejor rendimiento, con menos consumo.

Si hay una de las cosas que más se le critico a NVIDIA con el lanzamiento de la GTX 480 y que fue su gran talón de Aquiles, fue sin lugar a dudas el nivel de consumo y disipación térmica que genera el núcleo GF100, ahora con los datos del GF110 nos comenzamos a dar cuenta lo que siempre debió ser el GF100. NVIDIA debido a la presión ejercida por el lanzamiento de las Radeon HD 5000 series, no tuvo otra alternativa más que lanzar las GTX 480, aun cuando el núcleo no estaba del todo optimizado, una medida que pago caro sin lugar a dudas.

Ahora con el núcleo GF110 de la GTX 580, NVIDIA al parecer enmienda el camino y dice haber mejorado el rendimiento por watt de la tarjeta con menos consumo de energía.  Para esto la GTX 580 tuvo un proceso de reingeniería a nivel de transistores, donde NVIDIA evaluó cada bloque de la GPU, utilizando transistores con menos fuga de electricidad  (transistores más lentos) en ciertas zonas no críticas, mientras ha incorporado transistores de más velocidad en ciertas zonas más críticas del núcleo. Así un gran porcentaje de los transistores en el chip fueron modificados para un mejor rendimiento y optimización, que le permiten a NVIDIA lograr mayores frecuencias y mejor rendimiento con menos consumo comparado con la GTX 480, se estima que entre un 10 – 15% menos de consumo.

GTX 580: Mejor rendimiento en DirectX 11.

Una cosa lleva a la otra, el hecho de haber incorporado un bloque adicional de Streaming Multiprocessors (SM), dota a la GTX 480 de un motor “PolyMorph” adicional respecto a la GTX 480 (15 vs 16), lo que le permite obtener un mayor rendimiento en juegos diseñados para DirectX 11, específicamente en la técnica de teselacion (tessellation) utilizada en los juegos DX11, además de mejorar el rendimiento geométrico de la GTX 580. NVIDIA presume un mejor rendimiento en teselación que las AMD Radeon por cuanto la GTX 580 posee 16 motores dedicados para telesación, comparado con las Radeon HD 5870 que sólo posee una unidad dedicada para este efecto. Recodemos que la Teselación es uno de los elementos calves de DirectX 11.

El “PolyMorph Engine”, es el motor que administra el apartado geométrico del GF110, es el responsable de manejar asuntos como Vertex Fetch, Tessellation, Viewport Transform, Attribute Setup y Stream Output, es justamente aquí donde está ubicada la unidad de teselación adicional con que cuenta la GTX 580. Esto se potencia además con los 32 CUDA Cores adicionales que trae la GTX 580 respecto a la GTX 480, que operan a mayor frecuencia respecto a los CUDA Cores de la GTX 480 (1544Mhz vs 1401Mhz).

GTX580: Mejorado Sistema de refrigeración.

Una tarjeta tan poderosa como la GeForce GTX 580 precisa necesariamente de un sistema de refrigeración eficiente y además silencioso, en este sentido NVIDIA se ha esmerado en diseñar un “nuevo” sistema de refrigeración para la GTX 580, más eficiente en cuanto a disipación de temperatura y que genera menos ruido, comparado con la solución de enfriamiento convencional de la GTX 480, aunque superficial y estéticamente parezcan iguales.

La GeForce GTX 580 incorpora un sistema de refrigeración basado en la técnica de cámara de vapor (vapor Chamber), una tecnología de disipación que no es nueva en todo caso y que varios fabricantes  (como Sapphire) incorporan en sus tarjetas desde varias generaciones, de hecho AMD (ATI) incorpora este sistema de enfriamiento desde las Radeon HD 2900 series y ahora NVIDIA lo ha incorporado en la GTX 580 para disminuir la  temperatura y el nivel de ruido de la GPU. Este nuevo sistema de refrigeración posee una estructura modular en la cual convergen varias capas aislantes, refrigerantes y conductoras del calor; emplea una cámara de vapor de cobre que extrae el calor generado por la GPU y lo distribuye en el disipador (heatsink) para que este sea expulsado por el ventilador de la tarjeta hacia el exterior. En el siguiente diagrama muestra su funcionamiento.

Pero esto no es todo, NVIDIA también ha hecho algunos cambios en el diseño del ventilador (fan) para reducir la vibración y el ruido, haciendo a la GTX 480 menos ruidosa que su predecesora, la GTX 580 también incorpora un algoritmo de control más inteligente para el ventilador de la GPU que suaviza la velocidad del ventilador bajo carga.

GTX 580: Menos ruido

Para finalizar la GTX 580 incorpora un nuevo diseño externo para la carcasa del sistema de enfriamiento, esto con dos objetivos: facilitar la expulsión del aire caliente hacia el exterior y mejorar el flujo de aire entre las tarjetas en configuraciones SLI. Todas estas mejoras hacen a la GTX 580 más eficiente en cuanto a disipación de temperatura y al mismo tiempo más silenciosa (según NVIDIA).

GTX580: Nuevo hardware de monitoreo de energía.

Por generaciones las tarjetas gráficas de NVIDIA han incorporado sensores térmicos por hardware con el objetivo de proteger a la tarjeta de problemas ocasionados por una temperatura excesiva, provocadas por una mala ventilación, overcock excesivo, sobrevoltaje entre otras causas. Ahora con la GTX 580, NVIDIA a extendido esta característica para monitorizar también el consumo de energía, así la GTX 580 posee su propio circuito de hardware dedicado para monitorizar en tiempo real, tanto el flujo de corriente como el voltaje de cada rail de alimentación de 12v que provienen de los conectores de alimentacion PCIe 6-pines (75W), del conector PCIe de 8-pines (150W máximo) con los que se alimenta la GTX 580, ademas de la alimentación proporcionada por el puerto PCI Express (75W).

Así el nuevo circuito de monitorización de consumo de energía eléctrica mide dichos niveles y puede asi ajustar dinámicamente el rendimiento de la tarjeta en ciertas aplicaciones (juegos o benchmarks) altamente demandantes, esto si es que los consumos exceden los niveles para los cuales estan diseñada la tarjeta. Este nuevo módulo de hardware para monitorizar el consumo eléctrico de la tarjeta funciona similar al sensor o mecanismo de protección térmica.

Hemos terminado de revisar las principales novedades de la GeForce GTX 580 de NVIDIA, ahora luego de este tradicional apartado teórico-técnico que siempre incorporamos en nuestras revisiones pasaremos al resto de los detalles.

Galería Fotográfica

Demos inicio a la sesión fotográfica de esta nueva bestia de Santa Clara.

Aquí tenemos a las 3 contendientes, de arriba hacia abajo están: GTX 480, GTX 580 y HD 5870. El tamaño de la GTX 580 es el mismo de la GTX480, aprox. 11″.

La protagonista en primer plano, se aprecia que la carcaza es de plástico negro brillante con un diseño mate, en el cual se dibuja la garra clásica de nvidia. El formato del diseño es muy similar al que podemos encontrar en la GTX470 Referencial.

Una vista trasera, llena de elementos SMD, siendo el más importante el PWM Chil que está en el extremo final de la tarjeta.

Una toma de la parte final, se notan las 2 partes de la carcaza, la de abajo es una placa de aluminio negro que ayuda a disipar vrms, memorias, etc. La superior es de plástico y ayuda a encauzar el aire interno y darle el «caché».

Un acercamiento al chip CHiL CHL8266, un PWM digital de 6 fases, encargado del manejo de la energía entregada al GPU y las Memorias.

Las salidas de video de esta tarjeta, 2 DVI-i DL y un mini HDMI (1.3a). Recordemos que esta tarjeta sólo soporta 2 salidas de video activas.

Las tomas de poder, con 1 conector de alimentación PCIe 6-pines y otro conector PCIe 8-pines, los cuales necesariamente deben estar ambas conectadas. Esta combinación puede llegar a entregar hasta 300W.

Como se puede apreciar, esta tarjeta soporta una configuración de 3 o 4 tarjetas en SLI, pero eso se lo dejamos a los mega entusiastas y mega richs.

GTX 580: Mirada a Fondo

Removimos los 25 tornillos que mantienen unida a esta tarjeta y comenzamos la examinación interior.

Aquí tenemos la carcaza separada de la tarjeta, se ve en primer plano el gran disipador en base a la cámara de vapor interna que ya explicamos en el apartado técnico.

Una toma en perspectiva, se observa la placa metálica que disipa los componentes. Esta placa tiene adherido el fan mediante 2 tornillos.

Un acercamiento al disipador interno, se puede ver que es de gran tamaño. Su base es de cobre y las aletillas de aluminio muy delgado y frágil.

Separamos todo y así nos queda.

El disipador solo, en la primera fotografía se ve que es un gran heatlane (heatpipe plano) con aletillas adheridas, en la esquina superior izquierda se tiene la punta del heatlane. En la segunda foto, tenemos la base y su acabado, es casi pulido, pero de todas formas hace buen contacto.

La tarjeta en pleno, una versión mejorada de la GTX 480 en todo su esplendor. FERMI Done Well.

El GF110, como realmente debió haber sido el GF100, 3Millones de transistores operando bajo un proceso de 40nm con los 512 CUDA Cores funcionando.

Las memorias utilizadas son SAMSUG K4G10325FE-HC04, GDDR5 de 0.4ns con una frecuencia de operación máxima de 1250Mhz (5000Mhz QDR), pero que en la GTX 580 vienen a 4008Mhz, por lo tanto, en teoría aún les queda margen para overclock.

Las etapas de poder, tenemos 5+1 en este caso, 5 para el GPU y 1 para las memorias. Junto a estas se encuentra un nuevo circuito de protección y de manejo de la potencia que también describimos en el apartado técnico.

El nuevo circuito de monitoreo está basado en esos 3 ICs (U14, U15 y U16). Este circuito detecta cuando una aplicación como OCCT o Furmark se está ejecutando y limita los clocks y el rendimiento de la tarjeta, de manera de mantener el consumo dentro del límite de los 300W.

Nosotros comprobamos esto, ya que al ejecutar Furmark el consumo de la tarjeta era menor que al ejecutar otros juegos o el software Heaven 2.1. De todas formas, aún está en estado de pruebas y es una alternativa interesante para mantener a las tarjetas dentro de rangos fijos de consumo.

Aunque también es algo que puede jugar en contra, ya que si somos entusiastas y utilizamos la tarjeta con modificaciones de voltaje y bajo condiciones bajo cero, el consumo claramente excede los 300W, por lo que este sistema limitaría el rendimiento.

A pesar de que monitoreamos los clocks en todo momento, no se aprecia el cambio de frecuencias, al menos no con las herramientas disponibles actualmente.

Temperatura y Consumo

Una de las cosas que la gente le reprocha a la arquitectura Fermi y más en especial al núcleo GF100, es su excesiva temperatura de funcionamiento. Basta con poner a trabajar a las GTX480 y de acercar la mano a ese radiador que poseen las tarjetas basadas en el diseño referencial, para sentir ese calor. Ideal para gratinar en tu PC 😛

Nvidia con esto en mente, realizó un trabajo dedicado para mejorar la refrigeración de esta tarjeta y posiblemente implementarlo en sus modelos posteriores, esta solución la conocemos por tarjetas como las Sapphire Vapor-X, y se trata de una cámara de vapor que ayuda a enfriar el GPU. Aunque en realidad es un gran Heatlane sobre el GPU de forma directa.

Con la tarjeta fuera del PC y con una temperatura ambiente circundante de 19ºC se obtuvieron las siguientes temperaturas de operación.

Idle: 37ºC (Fan Auto @40%)

Full: 82ºC (Fan Auto @60%)

Full: 60ºC (Fan Manual @85%)

Full OC: 65ºC (Fan Manual @85%)

Como podemos ver, con el ventilador en modo Automático la tarjeta logra una temperatura sobre 80ºC, algo bastante alto pero menor que la temperatura que alcanza su hermana menor la GTX480. Ahora, cuando elevamos la velocidad del ventilador de forma manual hasta el máximo permitido (85%), la tarjeta bordea los 60ºC, claro que el ruido emitido es bien molesto.

Consumo

Algo de lo que todos, o la gran mayoría está preocupado y es casi un punto importante a la hora de tomar la elección de qué producto elegir. Como es sabido, Fermi no era muy amigable con el planeta ya que era una gran consumidora, sin embargo, la gente de Nvidia se puso a trabajar y logró reducir en parte el consumo de sus tarjetas y en este GF110 logró sus frutos.

Si bien la GTX 580 sigue consumiendo más que la oferta de AMD, podríamos tomarnos un minuto en ver cuánta es la diferencia. Tenemos 33Watts de diferencia, eso equivale a tener 1 ampolleta de bajo consumo extra encendida. Es realmente relevante eso? Pues la respuesta la tienen ustedes, ya que es sabido que el precio de la energía (la Luz) no cuesta lo mismo en Chile, España, Perú, o en el resto de los países de Latinoamérica, ni menos con los de Europa. Por lo que tienen que ver cuanto valen esos 33Watts extras en su país y proyéctenlos por 1 año y ahí verán si realmente son relevantes o no.

De todas formas, siempre es bueno gastar menos, pero para la gente a la cual está enfocada este tipo de tarjetas de video, esos 33Watts de diferencia son nada.

Overclocking

Overclockear esta tarjeta fue similar que cualquier otra nvidia. En este caso utilizamos la utilidad Nvidia Inspector (que no es de nvidia) y luego Heaven 2.1 para probar estabilidad inicial. Posteriormente se corrieron algunos juegos y benchs para determinar la estabilidad total.

Estos son los clocks referenciales, 772Mhz en el GPU, 1544Mhz en los Cuda Cores y 2004Mhz en las memorias. Como se puede apreciar en la captura, el vGPU es de 0.962v, esto es porque la tarjeta está en idle y los clocks son de 51Mhz/101Mhz y 135Mhz respectivamente. Esto es para disminuir el consumo.

Finalmente y luego de muchas pruebas se tuvo un valor de 850Mhz en el GPU, lo que representa un aumento de 10.39% respecto al original y en las memorias 2100Mhz, lo que representa un 5% por sobre el original. Noten que el vGPU en esta oportunidad es de 1.025v, esto es lo máximo que posee configurada la tarjeta. De todas formas, con este programa es posible subírselo hasta 1.138v, y de paso ganar unos cuantos Mhz extras.

Plataforma de Pruebas y Metodología

Para poner a prueba esta nueva tarjeta de video, utilizamos las siguientes piezas de hardware acorde a su naturaleza y rango de precio.

Hardware:

Software:

  • Windows 7 Ultimate x64
  • ATI Catalyst 10.10 + Hotfix 10.10d
  • NVIDIA GeForce 262.99
  • Unigine Heaven 2.1
  • Futuremark 3DMark Vantage 1.0.2
  • Nvidia Inspector 1.9.4
  • Call of Duty Modern Warfare 2
  • Crysis Warhead (Modo DX10)
  • F1 2010 (Modo DX11)
  • Alien vs Predator (Modo DX11)
  • Metro 2033 (Modo DX11)
  • FarCry 2 (Modo DX10)
  • StarCraft 2
  • STALKER Call of Pripyat (Modo DX11)
  • Tom Clancy’s HAWX (Modo DX10)
  • Battlefield BadCompany 2
  • Colin McRae DiRT2 (Modo DX11)
  • Lost Planet 2 (Modo DX11)

Metodología de Testeo

Todos los juegos fueron ejecutados a resoluciones de 1680×1050 y 1920×1200, el nivel de detalle se configuró al máximo permitido por cada juego y el filtrado fue siempre de 4xAA 16xAF, salvo en el caso en que se señale lo contrario.

Las pruebas se realizaron fuera de un gabinete con una temperatura de habitación de 19ºC. Las tarjetas, asimismo el sistema, solamente se mantuvieron ventiladas con sus coolers de fábrica, no se utilizaron ventiladores extras y la velocidad de los ventiladores de las tarjetas de video era controlada vía drivers de forma automática.

Resultados FPS Lineales

Ya conocieron esta forma de presentar los resultados en el review de las Radeon HD 6800. Creemos que es la mejor forma de ver el comportamiento de las tarjetas de video, ya que se aprecian las caídas y subidas de los FPS a lo largo de cada prueba y dicen mucho más que un par de números.

Un juego que podríamos comenzar a llamar antiguo, en este tenemos un notable rendimiento de las 3 tarjetas, todas por sobre los 60FPS en promedio. Sin embargo, la GTX580 es la que lidera la corrida seguida de su compañera verde.

Este es uno de los primeros juegos que hace uso de DX11 para su motor, posee muchas texturas y uso de humos y objetos destruibles. Se tiene que en un principio hay un comportamiento bien irregular pero se estabiliza a medida que avanza la escena. Lo otro a tomar en cuenta, es que la tarjeta de AMD, a pesar de obtener el menor framerate, es la que presenta menores variaciones en los FPS, ya que su línea de tiempo es mas «lisa» que las otras, o presenta menos peaks.

Un juego bien demandante de gráfica, y tenemos el comportamiento ideal para un análisis, cada uno separado y dentro de su rango de rendimiento. Se aprecia claramente el uso de GPU que tiene el juego y en qué parte estresa más o menos. En términos globales, la GTX580 se lleva la victoria.

Crysis Warhead, la evolución del mega demandante Crysis. En este juego, las 3 tarjetas tuvieron un comportamiento casi plano, la fluctuación de FPS fue mínima, es casi rendimiento bruto. Nuevamente la GTX580 es la que lidera el podio.

No creo que haya que decir mucho aquí, se repite la historia de Crysis Warhead. Notar que se está cumpliendo lo que se planteaba antes de este lanzamiento, que la GTX580 era un 20% más rápida que la GTX480, y al mirar hasta ahora los resultados, esto se está cumpliendo.

Si bien, las tarjetas de NVIDIA lideran en FPS, la de mejor desempeño a lo largo de la prueba fue la HD5870, fíjense que sus FPS son más constantes y no tienen tantas variaciones. Por otro lado, las de NVIDIA, poseen puntos en donde hay caídas de FPS y eso es lo que no queremos. Claro que estamos sobre los 90 FPS, algo que el ojo humano no nota, pero es algo que está y que sucede.

Este juego posee un motor propio (MTFW2.0) el cual entrega detalles realistas y buena calidad gráfica. Aplica harto tesselado y juego de texturas cuando se utiliza en modo DX11 y es bien demandante del sistema. Tenemos la tendencia en que la GTX580 lidera el ranking.

Este es otro juego que utiliza las bondades de DX11, como tesselado para otorgar una calidad de imagen bastante realista. Es por ello que las tarjetas de video más poderosas sufren con el.

Este es un juego basado en un motor DX9 pero que entrega una calidad de imagen notable. Lo que hay que rescatar de estos gráficos, es la forma en cómo se comportan y cual de ellas posee menos spikes negativos, ya que si miran bien, su rendimiento es muy similar.

Otro juego basado en un motor DX9 y que ofrece un rendimiento similar para todas. Cuando estamos a 1680×1050 la Radeon HD5870 pareciera imponerse por sobre las otras tarjetas.

Otro juego basado en DX11 que utiliza Tesselación como carta de presentación. El poder de los 512 CUDA Cores de la GTX580 se notan y es por ello que obtiene mejores framerate que las otras, aunque al final, esa diferencia no es tan notoria.

Aquí tenemos una representación de como queremos que se comporten nuestras VGA en cuanto a su desempeño global, manteniendo lo más parejo posible su framerate total, fíjense que la GTX480, a pesar de obtener menos FPS que las otras, posee su framerate más parejo y sin tantas fluctuaciones.

Resultados FPS Promedio

Iniciamos con la prueba de excelencia para los amantes de los benchs de hoy en día, se aprecia que la GTX580 es la mas rápida, sin embargo hay que notar que el GPU score es mayor que el overall, esto es porque el CPU le hace cuello de botella.

Heaven 2.1 un test sintético que pone a prueba nuestra tarjeta y su capacidad para renderear una ciudadela, utilizando librerias DX11. Tesselado donde NV es fuerte se aplica y queda demostrado.

Los FPS promedios logrados en este juego (DX10) son bastante buenos y la diferencia existente entre ellos es imperceptible a simple vista por el ojo humano. De todas formas, la GTX580 es la líder en esta prueba.

Warhead logró poner en aprietos el sistema y provocó que el promedio de FPS fuese casi el mínimo aceptable para poder jugar tranquilamente.

Nuevamente un juego con motor DX11 marca la diferencia a favor de nvidia con una clara ventaja.

Este juego fue ejecutado muchas veces en la tarjeta de AMD, ya que era demasiado raro su comportamiento. El resultado, en todos los intentos rindió lo mismo y se comportó igual. Se revisaron las configuraciones en los drivers y nada, posiblemente una nueva versión de algún hotfix o un nuevo driver remedie este magro desempeño.

Este espectacular juego (soy un fan de Starcraft) posee un motor DX9, por lo que esperábamos un rendimiento parejo entre todas, se vio reflejado en el framerate y ahora aquí. La GTx580 obtiene una leve ventaja por sobre la HD5870 en alta resolución y una leve desventaja en la resolución menor.

Call of Pripyat hace un uso intensivo de Tesselación, es por ello que no sorprende ver que las tarjetas de nvidia tengan mejores resultados aquí.

Aquí, a pesar de obtener menos FPS que las otras, la HD5870 posee la menor caída de FPS al pasar de una resolución a otra, eso significa que si seguimos subiendo de resolución las tarjetas andarán similares?.

Nuevamente un juego DX9 ofrece un rendimiento similar entre las 3 tarjetas, claro que ahora se nota la ventaja entre una y otra.

Otro juego que utiliza Tesselación de forma fuerte y otro juego donde las tarjetas de nvidia destacan por sobre la de AMD.

Este nuevo juego de EA posee una gran calidad visual, en este la diferencia entre la GTX580 y la HD5870 se estrecha a meros 8-10FPS.

Aquí destaca el rendimiento de la HD5870 por sobre la GTX480, a pesar de ser esta última una tarjeta con supuesto mejor rendimiento en DX11.

¿Y Si Overclockeamos la GTX580?

Overclockeando nuestra GTX 580 a 850 MHz en el núcleo y 2100 MHz en las memorias los resultados obtenidos fueron aceptables para 3DMark, pero impresionantes para Heaven donde el puntaje escaló muchísimo luego de darle un ligero overclock a la VGA.

Notar nuevamente lo mencionado antes, el CPU le hace cuello de botella a la vga. Algo difícil de notar en una single GPU, pero que aquí queda a la vista.

Con los juegos el nivel de overclock no hace mucho, y decimos eso porque 5 o 10 FPS extras cuando el juego te corre a más de 60 FPS es algo que no notarás a menos que tengas reflejos de máquina. De cualquier modo nunca están demás esos frames extra  a la hora de decir «Mi PC es más rápido que el tuyo :P».

Palabras Finales

Señoras y señores, estamos ante la tarjeta de video single GPU más rápida del mercado, al menos eso es lo que muestran nuestras pruebas, con esto corroboramos lo que prometió NVIDIA, de tener la GPU DX11 más rápida.

Las mejoras que tiene la GTX 580 por sobre su antecesora son claras, más CUDA Cores, más clocks, menos temperatura y menos consumo. A esto hay que sumarle que viene de la mano con unos controladores que otorgan un boost a las anteriores tarjetas, uno se lleva un pack entero.

El precio sugerido para esta tarjeta es de $500USD y la posiciona entre la GTX480 y la HD5970, con ese precio, haría que la GTX480 bajase de precio, esto es mientras se prepara la llegada de las próximas GTX 570 y GTX560, quienes vendrían a llenar el mercado Medio y Medio Alto. Además de, obviamente, la competencia por parte de AMD (Radeo HD 6900).

En lo referente al rendimiento, esta tarjeta es entre un 10 a un 20% más rápida que la GTX 480 y consume menos que esta, lo que la transforma en la opción de compra clara ante una GTX480. Pero será una decisión difícil ante la HD 5870, ya que la diferencia de rendimiento entre ellas, se compensa con la diferencia de precio que hay.

Hablemos del consumo y la temperatura. Este chip se calienta harto, pero gracias a su sistema de refrigeración, en base a una cámara de vapor interno, la temperatura es más baja que la de la GTX 480. Otra cosa que comentar, es que emite menos ruido que la GTX480 y que la HD5870, tanto a bajas rpms como a máximas rpms. Sobre el consumo, obtuvimos que consume 33W más que la HD5870 y cerca de 24W menos que la GTX 480, esta diferencia de consumo la veremos reflejada a fines de año cuando sumemos todo lo consumido y agradezcamos esa diferencia. En este tema hay que hacer mención a una cosa, el precio de la energía en muchas partes es barato y en otras es muy caro, esos 33W son casi una ampolleta de bajo consumo, por ende, es lo mismo que tener una luz prendida mientras jugamos, acaso nos preocupamos de ello? o somos de las personas que apagamos todo a la hora de jugar, para que la cuenta de la luz no suba a fin de mes?

Esta tarjeta está destinada a un segmento de precio, donde las personas que poseen el dinero suficiente para comprarse una o varias de ellas, no se preocupan del consumo ni de la temperatura, sino que del rendimiento. Para ellos está destinada esta tarjeta, al menos de forma natural, porque si la quieres y tienes el dinero para comprártela, pero no te sobra, anda por ella pero estas advertido de antemano, que esta tarjeta subirá tu cuenta de la luz la misma cantidad que una ampolleta chica encendida.

Algo que mencionar también, es que NVIDIA se preocupa de entregar un producto con drivers maduros y pulidos, algo que a todos nos beneficia, ya que no estamos sometidos a controladores beta y propensos a las fallas. Esto es un plus también a la hora de este lanzamiento, ya que los drivers GeForce 262.99 estarán disponibles para descarga y para todas las tarjetas de NVIDIA a partir de hoy.

En resumidas cuentas, sabemos que no es la tarjeta que menos consume, pero si pudiéramos elegir una tarjeta sin importar su precio o su consumo, no elegiríamos la nueva singlecore más rápida del oeste? o a caso no te comprarías un Camaro porque consume mucho?, teniendo el presupuesto obviamente. Pues bien, la GTX 580 cumple con lo que prometió y es la singlecard más rápida en este momento. Ya veremos si eso se mantiene cuando aparezca su competidora.

Galería de Fotos: Tarjetas y Empaques de los Partners

[nggallery id=597]

Finalmente los dejamos con una galería de fotografías de los modelos de GTX580 que ofrecerán los fabricantes, la mayoría son basados en el diseño de referencia.


Reviewer: Marioace
Marco teórico: Cedrik
Colaborador:  Noir
Tirano revisador oficial de la hortografia: MadBox

Related posts

Review Asus Zenbook Duo 2024 (UX8406M)

Review ASUS TUF RTX 4070 Super OC 12GB

Review Noctua NH-U14S TR5-SP6 [Refrigeración por aire para Threadripper]

113 Comment

destroyer 12 julio, 2011 - 09:02

ne parece chaval que no te enteras ,que la 5970 es mas rapida que la gtx 580? en que en dx 9? porque en la mayoria de los juegos con dx 11 se come una mierda tu querida 5970 comparandola con la gtx 580 ,y mira incluso en crysis warhead es mas rapida la 580 anda TROL lee mas y mira mas review antes de decir estupideces y para mas inri un TRISLI GTX580 se cruje a un quadcrossfire6990 anda hay queda eso y si no te gusta o te jodes o cambias de grafica

judas 8 junio, 2011 - 16:39

Mi pregunta es? Con mi fuente de 850W 1 solo disco pero un G25-G9-G19 joy Freedom ni en pedo tiro esta VGA no? voy a tener que cambiarla?

PD: Se vende una Power Cooler 850w Modular 😀

OmgWtf 8 junio, 2011 - 16:56

Con 850 haces un sli con la 580 sin problemas… No confundas en algunos reviews el consumo total de la tarjeta con el total de el sistema (PC completo).

destroyer 23 marzo, 2011 - 09:54

almauri ese que la 5970 es ma potente en direct 11 que la gtx 580 TU ERES TONTO DEL CULO X decirlo suavemente, anda mirate comparatibas sobre todo en minimos y me explicas eso de que la 5970 es la reina jajaj si de tu pc xq del mio lo es mi sli gtx 580 que se cruje no a una 5970 si no a un quadcrossfire 5970 , Y SIEMPRE SERA MEJOR UNA GTX 580 X NO TENER MICROSHUTTERING, Y X TENER MUCHO MEJORES MINIMOS QUE UNA 5970 QUE A FIN DE CUENTA SON LOS QUE IMPORTAN informate niñito que no te enteras

leoncarlos 29 noviembre, 2010 - 12:38

Acabo de comprar la GeForce GTX 480, «la más nueva y poderosa tarjeta gráfica de todos los tiempos» y a las dos semanas sale la GeForce GTX 580 «la más nueva y poderosa tarjeta gráfica de todos los tiempos».
Todavía no empiezo ni a disfrutar mi nueva tarjeta cuando ya hay una nueva que pone al descubierto LAS CARENCIAS DE SU PREDECESORA, tal como la 480 hizo con las anteriores.
Maldita mercadotecnia.

FALL 19 noviembre, 2010 - 03:26

ESTE REVIEW ES MUY FAVORABLE PARA NVIDIA Y ESTA MUY ERRADO LA GTX580 ES CASI LO MISMO Q LA 480 SIGUE SIENDO MUY CALIENTE Y CONSUME MAS Q 2 5870 EN CORSSFIRE POR ESO LES DIGO MADBOX EMPIECEN A HACER REVIEWS REALES Y NO ESTO, PORQUE YA NADIE LES VA A CREER SIEMPRE FAVORECIENDO A NVIDIA COMO LAS MAYORIA DE LOS SITIOS.

Jonatan 13 noviembre, 2010 - 04:06

el precio en ee.uu. es similar para esto:
-580
-2 6870 en crossfire
¿cual conviene? sólo por curiosidad, no voy a comprar eso ja.

zB.Fs 12 noviembre, 2010 - 23:48

hoooly sh*t …

predator30 12 noviembre, 2010 - 20:22

Para las pequeñas mejoras que se le hizo a la tarjeta, encuentro que rinde bastante más de lo esperado ya que en «las tarjetas» no sorprende mucho pero en la cancha despega bastante sobre todo al nivel de calidad resolucion y detalles que se le ha exigido

KiusteR 11 noviembre, 2010 - 12:18

Hasta cuando van a considerar PhysX (y CUDA) como un punto fuerte a favor de Nvidia y también un punto negativo de AMD por no adoptarlo???

Porque muchos reviews que leí de GPUs AMD dicen: puntos negativos: * No soporta CUDA o PhysX

Es una autentica idiotez!!! No es una desventaja, son simplemente diferentes tecnologías, al igual que AMD tiene STREAM, OpenCL, OpenPhysics…

Fobia 12 noviembre, 2010 - 04:36

Lo mismo se podria decir sobre el tema de temperaturas o de consumo de energia acaso alguien que compra tarjetas sobre 250lukas o mucho mas estara complcado con la cuenta de luz o ti crees que esa persona usa gabinetes genericos ?
padre gatica..ya sabes el dicho ..

cesariomantiz 11 noviembre, 2010 - 10:40

bueno respecto al consumo de energia ,en mi caso coloco una ampolleta mas economica y no me preocuparia de los wats una de 100 y la otra de 40 tengo para las 2.
respecto al rendimiento de juegos esta bien.
ojala bajen mas nomas

AMDON 10 noviembre, 2010 - 19:50

jajajaja!!!! me kgo de la risa leyendo las peleas. regresando al tema, a mi me da lo mismo si es nvidia o ATI. mientras rinda loq que me gusta y valga lo que me alcance. respecto a physx, creo que los juegos que hay se pueden contar con los dedos. no creo que sea motivo de compra solo por eso.

Felipe 10 noviembre, 2010 - 11:52

Rinde muy Bien, Yo la tengo recién comprada en mi config

Intel Celeron 430 1.6ghz
512mb Ram ddr
Gtx 580
Ocz X&X 750w
funcionando con Linux From Scratch

harryccó 10 noviembre, 2010 - 12:36

demas! -1 x el comentario y su maquina 🙂

=Vulcano= 10 noviembre, 2010 - 09:50

Dios esto se esta llenando de troles y mas encima troles internacionales….. porfavor hagan comentarios inteligentes van 3 paginas de peleas estupidas «que yo use esto, que yo uso el cpu overclockeado a xxxxxx, que tengo la chota mas grande, que tu vieja esto…» esto es un review no una guerra FanBoys.

Y si Nvidia tiene la Vga mas rapida SINGLE hoy por hoy pero tenemos que esperar el golpe de AMD que de seguro sera mas barato por que esta targeta uffff esta muy muy cara.

MadBox 10 noviembre, 2010 - 11:25

internacionales con respecto a? todos somos internacionales para todo, ser troll no tiene nacionalidad.

=Vulcano= 10 noviembre, 2010 - 11:58

mmm demas que los troles no tienen nacionalidad ni idioma, yo creo que un troll chino se entenderia a la perfeccion con uno de aca de chile total hablan de las mismas mierdas XD https://www.trollscience.com/

CEREC 10 noviembre, 2010 - 17:08

Tu vieja se come la chota mas grande! Puto!

CEREC 10 noviembre, 2010 - 17:09

Y vos sos mas pelotudo que te pones a leer!

jilo 9 noviembre, 2010 - 21:12

Che dejen de decir que la VGA esa es la mas rapida del mundo, la vga mas rapida es la «»»»»»»»»»5970″»»»»»»»», Nvidia dio un gran paso hacia la eficiencia en consumo y eso, pero no cambio mucho en el rendimiento, la GTX480 ya era la vga single gpu mas rapida, esta lo sigue siendo, no se porque hay tanta lata con que es la vga mas grosa.
Por ela mor de dios, no sean tan fanboy

Qazser 9 noviembre, 2010 - 22:12

a ver..aunque la 5970 se la gpu mas rapida del mundo..solo lo es por tener 2 cores, lo que muchos juegos de todos modos no soportan al 100% todavia, por lo que yo por lo menos, hoy en dia valoro mas una gpu single core que una dual. Porqu se que ese nucleo que tiene da pa mucho, y no tengo que esperar a que algun parche me habilite el 2do medio nucleo para que vaya mas o menos bien..por tanto buen trabajo que hizo nvidia.. imginense que saquen una version dual core de la 580 para dejar callaitos a todos los ati fanboys con su «5970», entonces ya no tienen razon ninguna, la serie 6000 solo sera un upgrade por lo que tampoco me espero mucho…eso si, nisiquiera inventando el nitrogeno liquido incrustado en cobre, van a parar las temperaturas que pueden generar los 2 nucleos a la vez

Maury 9 noviembre, 2010 - 22:52

Pero que manera… a ver Qaszer… si lo pongo un poco mas facil… Al menos para mi no es tan dificil razonarlo… de que importa tener 2 gpus en una vga (ultra relajados en frecuencias de por si, como el caso de la 5970), o cual seria la contra, si estos dos trabajando a la par, fueran mas frescos, igual de costosos, y consumieran inclusivemente, menor energia para lograr mejores resultados que una VGA mono GPU. Sabes a lo que uno se refiere cuando habla de eficiencia y eficacia? Espero que si… entonces… donde esta el problema… aver si me lo comentas… ademas de que he leido de que algunos juegos no usan los dos GPUS, eso no es ningun problema, uno se queda en reposo y usas al 100% el restante; Un ususario llamado Aof Dark dijo:

-Son más caras. (MENTIRA!!!)
-Tienen el problema del micro stuttering (es verdad, y al emnosYO NO LOS TUBE ni con esta VGA ni con un anterior CF de 4850).
-No todos los juegos funcionan como es debido en 2 gpu y algunos funcionan como si se utilizara solo 1(No veo el porblema si lo puedo jugar al 100%).
-Consumen más y producen más calor (Si la comparamso ala 5970 con la 480, esta afirmacion es MENTIRA!!!).

Fanboy yo? I love GTX460! (lo mas aprecido a una ATI que hizo N-Vidia)

metalhead 9 noviembre, 2010 - 23:38

yo tengo una 460 y no la cambio por ninguna ATI, tu ultimo comentario se fue al carajo

Maury 10 noviembre, 2010 - 00:28

Jojojo… este se ofendio feo… y me habalnd e fanboys… jaja. AMigo.. ya pedi disculpas arriba por si alguien se sentia ofendido o tocado… lo vuelvo a hacer. Slaudo!

metalhead 9 noviembre, 2010 - 23:43

…como dijo alguien por ahi Physx hace la gran diferencia

Strasto 10 noviembre, 2010 - 00:04

activa physx y vas a ver la diferencia de fps para abajo que te va a dar el juego xD!

KAISER 10 noviembre, 2010 - 09:43

Lo bueno que viene Havok physx para terminar con physx

Qazser 10 noviembre, 2010 - 06:04

Te entiendo Maury..De hecho tampoco estoy de acuerdo con el tio ese. La hd5970 es relativamente barata, no calienta mucho y puede que los 2 cores juntos den el mejor rendimiento visto hasta ahora. Tambien estoy de acuerdo con la eficiencia/eficacia..pero que pasa si un core solo no da el rendimiento como para disfrutar del juego al 100%. Ati y nvidia siempre sacan sus perfiles multiGPU para los juegos en la siguiente actualizacion de sus drivers..y yo si me compro un juego que sale hoy por ejemplo, y pide como el crysis, quiero jugarlo desde hoy, no esperarme una semana hasta que salga un dichoso hotfix de amd, o un update de controladores de nvidia (fijate que soy neutral de marca, solo estoy diciendo porque no me gustan las dual core).
Si yo me compro una grafica es para usarla en un rango alto (un año minimo), por lo que en tu caso, esa grafica en caso de ser multiGPU, tiene que aguantar juegos como metro2033 (imaginando que no tiene perfil multigpu con la salida) a la mitad de velocidad, porque creo que ese juego si puede llegar el 100% de un core de la 5970, haciendo correr el juego a frames bajos. OJO, no me estoy refiriendo al metroo en si, estoy diciendo futuros juegos que rendiran lo mismo.

saludos

vulturize 11 noviembre, 2010 - 17:14

Jejeje esto esta entretenido jajaja Bueno la verdad hacer comentarios antes q aparezca la HD6970 esta de mas!! Y claro q falta q aparezca la 6990 que si sera dual gpu y esta si no va tener competencia ya q si Nvidia saca alguna targeta con dos GPU 580 sera para q traigan incluido una planta nuclear y un carro lleno de extintores::.. jajajaj

Aof Dark 9 noviembre, 2010 - 21:06

Se levantó el NDA y de inmediato review?!?

Los felicito, me gustan sus review, especialmente el gráfico del los fps lineales, de esa manera se puede apreciar donde falla el performance de las tarjetas y que es lo peor que se puede esperar.

MadBox 9 noviembre, 2010 - 23:24

De eso se trata el NDA, que todos informen desde una hora. Como somos un medio importante ejem ejem se nos envían con anticipación samples y hardware para los lanzamientos de casi todos los fabricantes.

Maury 9 noviembre, 2010 - 19:48

Recien veo otro comentario tuyo Jero… no entendés nada… No leíste que tengo el proce con el speed step activado, por si no tenes demasiada nocion, 1.012v no es nada! y bueno, el ati power play, me imagino q sabes lo que es… eso es un uso intelegente y racional de la energia. Solo cuadno a la pc le haga falta (jugando, 1h al dia promedio mensual)se va a poner a 4.4 y la VGA 980/1200.
Y no meto a GREENPEACE de chiste. Es verdad lo que dije, si qeures pasame tu mail y te envio un correo de invitacion, asi por lo menos difundis… A vos te recomendaria que en vez de a un psicologo, recurses la escuela primaria, si es que la copletaste. Un saludo!

Jero 9 noviembre, 2010 - 19:58

Disculpame lei con WC… Water Cooling, Error mio.

Aof Dark 9 noviembre, 2010 - 21:04

Oye jetón, porqué no sueltas el acelerador un poco?
Con la sarta de huevadas que te pusiste a escribir, se hace difícil leer los comentarios de la gente sensata.

Y si quieres desventajas de las tarjetas doble gpu:
-Son más caras.
-Tienen el problema del micro stuttering.
-No todos los juegos funcionan como es debido en 2 gpu y algunos funcionan como si se utilizara solo 1.
-Consumen más y producen más calor.

Ah, y otra cosa… Greenpeace? Con razón tan imbécil, ándate a abrazar un árbol hippie.

Laino 9 noviembre, 2010 - 21:17

UUUUFFFFFFFF que es complicado don Maury. Hace poco ameno leer como siempre se ha hecho en madbox….con respeto.

Maury 9 noviembre, 2010 - 22:41

Vos sos el imbecil! jaja esoty hasta las orejas de leer no mas que estupideces! por dios! Gastan mas! gastama mas la 5970 que esta porqueria? Por favor… se un poco mas ameno tu, y deja de escribir cosas incensatas. Idiota!

Maury 9 noviembre, 2010 - 22:59

Esa respuesta era para el usuario de arriba, no para Laino!

Maury 9 noviembre, 2010 - 22:56

Pido sus disculpas Don Laino y a todos los que se molestaron, solo que a veces es de mi molestia leer algunos razonamientos sin sentidos o tan equivocados! Me aprece que voy a tener que ir al psicologo como digo Jero… o que me expliquen con fundamentos acertados… PORQUE! jaja. SALUDOS!!!

Maury 9 noviembre, 2010 - 19:40

No flaquito, todo bien con vos, pero a ver si te hubicas… el «cabeza de verga» fue el que bardeo antes q todos, ya te puse el recorte en otro coemntario de lo que escribio, que dicho sea de apso fue bochado por muhcos, y seguro que es un porteñito pedante fanboy de nvidia. No entendiste bien, no tengo nada en contra de Nvidia, AMO la GTX460! Amé como a niguna mi 8800 Ultra, pero hay que reconocer las cosas como son, como lo dice Sprite y MadBox.

KiusteR 9 noviembre, 2010 - 21:35

eh… no todos los «porteñitos» somos asi eh? jeje xD

Maury 10 noviembre, 2010 - 01:26

Metalhead vos seguro tambien sos otro porteñito puto parido por el culo! te crees q te las sabes a todas… jaja que pelotudo… Una vez escuche a un pobre porteñito decirle a su padre… «papá papá, un poyo vivo!!!» jaja, pobres infelices! Anda hacete dar con Zulma Lobato! PAJERO!

metalhead 9 noviembre, 2010 - 23:48

que tenes contra los porteñitos? deja de teclear al pedo que no pegas una!! y anda a hacerte coger con un enano

CEREC 10 noviembre, 2010 - 01:30

A tu vieja se la coje un enano! Puto del orto!

Maury 9 noviembre, 2010 - 18:58

Jaja, vos la tenes adentro cabeza de verga! seguila mamando!

Jero 9 noviembre, 2010 - 19:05

hacete ver con un psicologo, comentale de que teens un problema con la marca Nvidia, que cuando te acercan el logo empesas a sangrar, veniamos todo bien en la noticia opinando haciendo chistes, y venis insultando bardeando, gozando de lo que tenes, debes tener linda maquina con WC esta muy bueno, pero personas como vos no la mere, proque en vez de presentarla para que vean el fruto de tu trabajo, lo usas para gozar.

gustavo 9 noviembre, 2010 - 18:36

muy interesante
ojala que bajen un toque mas los precios de lo que ya bajaron con las 6800 de amd

harryccó 9 noviembre, 2010 - 18:16

mejor dicho como rendira con los futuros procer Bulldozer de AMD! 8 cores! 🙂 baba

pbe_x 9 noviembre, 2010 - 18:08

excelente review !!! , me imagino esa tarjeta como rendiria acompañado de un intel core i7 920 overclokeado , deberia ser fabuloso !!! , ojala que no lleguen tan caras aqui y tambien que saquen las versiones gtx570 y gtx565/560

pbe_x 9 noviembre, 2010 - 18:07

excelente review !!! , me imagino esa tarjeta como rendiria acompañado de un intel core i7 920 overclokeado , deberia ser fabuloso !!! , ojala lleguen tan caras aqui y tambien que saquen las versiones gtx570 y gtx565/560

striker_gt 9 noviembre, 2010 - 15:09

La VGA mas rápida del mundo Radeon 5970.

La VGA con mejor relación precio/rendimiento la Radeon 5850.

AMD Wins.

Solo queda ver que pasará con la nueva High end de AMD.

MadBox 9 noviembre, 2010 - 15:13

Oye Fanboy!!! esta tarjeta si es la tarjeta de video single core más rápida, lo que hay que ver es si lo sigue siendo después de 12 días. Esta entretenido esto a ver que pasará.

No entiendo tanto fanboy de un lado y de otro, acaso están auspiciados y les regalan el hardware?

Las cosas como son 😉

Maury 9 noviembre, 2010 - 16:00

El mismo comentario muy pelotudo que hizo un amigo mio… Que mierda me importa si es SINGLE o MULTI GPU, cuando lo que yo compo es una VGA! y voy a pagar por UNAAAAAA VGA!!! y que esa vga… la 5970, aun siendo 2 GPUS, ultra relajados(lo que indica mayor potencial de OC, que ahora lo dejamos de lado), consumen menos que la 480 (SINGLE), quizas igual q la 580, que cuestan lo mismo, y aun asi se la re cagaga cluliadno a cualqueir NVIDIA, iclusive esta GTX 580 que s casi 2 años mas nueva! Que carajo me importa que sea un GPU… proque nunca salio la 480×2 o la 460×2? Cuando salgan ahblamos! (lo que indica mayor potencial de OC, que ahora lo dejamos de lado)

De que carajo hablan los Nvidia FANBOYS… yo soy fanboy del consumismo inteleginte y de no cagarme en el planeta, ademas de que a la palta no la cago.

Nvidia Fanboy… por dos años has visto una ATI en el trono, y hoy que lanzaron su mejor exponenete a la cancha, una abuelita como la 5970 le sigue apsando el trapo… de que estas hablando Willy?

cabeza de verga 9 noviembre, 2010 - 16:42

2 años en el trono en cuanto a FPS se refiere pero Nvidia tiene Physx y por eso es mejor opcion que unos pocos FPS mas

MadBox 9 noviembre, 2010 - 16:48

Debo ser pelotudo entonces. De todas forma soy gamer y como tal la 5970 tiene un problema: sus dos gpu, al igual que todas las multigpu no escalan bien en juegos que no estén optimizados para multigpu, incluso a veces llegando a ser poco ventajoso. Claro esto ha disminuido a lo largo de parches y drivers, pero te aseguro que la 5970 ni ninguna vga que haga corssfire o sli entre sus nucleos garantiza ser mejor en todo, no todos los jugos se benefician de esa tecnología y yo tengo un par, que quizás para algunos ya serán antiguos, pero que tengo ganas de seguir jugando. Media 5970 rinde menos que una 5870, simplemente una tarjeta multigpu no es la solución para todos los problemas como para descartar una single y por eso se hace la diferencia.

Maury 9 noviembre, 2010 - 17:11

Otro comentario si argumento… juegos en los que no escala tanto como debiera… aun escalando pobremente le gana, segundo… los juegos hablado a futuro… todos seran optimizados para multiples GPUs, no te qeudes en los Crysis (¿2007-2008?) y tercero… si cuando el juego comienza dice Nvidia – Ments to be played… quien te crees q puso guita para desarrolar ese juego? vos te pensas que Nvidia va a invertit dinero en auspiciar y desarrolar un jeugo para que luego las ATIs salgan benficiadas? No, no esi, los juegos q dicen ATI, son contados. y por ultimo lugar, lo del phys X es un tema aprate, porque es una tecnologia patentada de Nvidia, si vamos al caso son contados los jeugos en la q se aprovecha como el Batman y el Mirrors… pero mas alla, con $350 argentinos (80dls) me compro un 9800GTX y listo… cual es el drama? (ups…, em olvidaba, el consumo de una Nvidia!) Jajaja… dan lastima estos chabones de Nvidia.

Si alguien se puso a pensar porque tanto impetud en contra de Nvidia, es porque soy activista directo de GREENPEACE

P/D: lo mejor que hizo el verde fue la GTX460 porque es lo mas parecido a una ATI (exelnte prestacion precio rendimiento y OC, consumo y temperaturas!)

Maury 9 noviembre, 2010 - 17:17

Otra cosita… cauntos meses estuviste con Nvidia, esperando jugar un jueguito con DX11, mientras los que tenian un 5770 te gozaban jugando al DIRT2? Eso es para CABEZA de VERGA que bien puesto tiene su NICK!

cabeza de verga 9 noviembre, 2010 - 17:54

AJA!!! la tenes adentro fanboy del orto!!

Laino 9 noviembre, 2010 - 18:11

ohhhhh, el medio beneficio que es ver 3 segundos el DX11 cuando el auto pasa por agua o cuando se ve la multitud en las galerias….

Recien ahora se está aprovechando el DX11.

Parece que te estresa hablar de nvidia.

Jero 9 noviembre, 2010 - 18:20

Maury te pasas en fanatismo, la verdad… te sabes hasta cuantos años ah estado AMD en el «trono» todo, namasa sos.
Menos mal que no sos AMDfanboys, sino habria comentarios mas fuertes, o por ahi no podes tener algo peor que los demas, ademas con que empesaste con «El mismo comentario muy pelotudo que hizo un amigo mio……. » y tenes amigos????

«(ups…, em olvidaba, el consumo de una Nvidia!) Jajaja… dan lastima estos chabones de Nvidia.

Si alguien se puso a pensar porque tanto impetud en contra de Nvidia, es porque soy activista directo de GREENPEACE»

Si guarda… OJO con el consumo!!!, hay que estar en sintonia con el planeta…
Y decime.. tenes una fuente de 800W??, algun QUAD CORE en adelante OVERCLOKIADO (aumento de la potencia. PROS: te otorga mayor rendimiento. CONTRAS: aumento del consumo electrico lo que se traduce en aumento de temperatura, y Wattage), la placa la overclokiaste????, YO TE DIRIA QUE SI QUERES CUIDAR EL PLANETA HAGAS UN UNDERCLOCK, proque me parece mas a «intento de insulto» que defender el planeta aajajajaj.

Jero 9 noviembre, 2010 - 18:34

Palabras textuales de MAURY:

«cauntos meses estuviste con Nvidia, esperando jugar un jueguito con DX11, mientras los que tenian un 5770 te gozaban jugando al DIRT2?»

palabras claves… Nvidia, 5770, esperar, gozar, dx11… che y vos gozas a tus amigos de lo que se compran???, posta tenes amigos???, yo te diria que te alejes de los foros… eso te quema la cabeza. DE VERDAD TE LO DIGO. Saludos!

Maury 9 noviembre, 2010 - 18:46

Jaja, pobres chabones… Mas inteligente aun que lo que comentas (pa) «Jero», tengo OC agresivo, un I5 750 a 4.4 con un WC con el speed step activado! 1.012v en reposo a 1.8 Ghz cuando escribo este comentario por ejemplo, mientras que la 5970 esta a 0.900 con el core en 400Mhz… jo jo! y a 980/1200 1.2v cuadno juego.
Lo del DX11 fue por ese physx, hooo physx, 2 juegos! Me dan gracias y me divierto con uds!
Mi comentario fue para este Cabeza de verga «aja!!un tarro de vaselina pa que no les duela a los fanboy de AMD ja ja!!
«

Fobia 9 noviembre, 2010 - 18:47

que tanto que tiras para arriba si usas tarjeta de video de gamba.. de seguro usas placa madre ecs jojojoj

Jero 9 noviembre, 2010 - 18:56

Te felicito buen OC, y el planeta que pasa???, metes a GREENPEACE como si fuera un chiste… aver si dejas de ser chiquilin. Lo que no ves es que aca no hay VGA buenas ni malas, las 2 marcas son una namsa… una es mas cara a la otra le cuesta sacar buenos driver, eso es lo que no ves, esta en un grado de ego o muy grande.. o sos AMD FANBOY, cuantos foros leista??

MadBox 9 noviembre, 2010 - 17:28

Ya tengamos una competencia intelectual con el dueño del sitio que visito todos los días, pero no hoy, los argumentos son solamente en base a experiencias, en cualquier caso, la tarjeta que usé durante todo el primer trimestre fue una 5870, por lo que no quieras hacer una guerra fanboy conmigo que es lo que menos tengo, es más te escribo desde un Mac.

Mira ARMA no decía ni nvidia ni ati, pero era injugable con una 5970 o con cualquier SLI, simplemente porque su motor gráfico no soportaba multigpu.

Maury 9 noviembre, 2010 - 17:49

No era para vos MadBox, era para el CABEZA de VERGA!
Y ya se que hay juegos que no soportan multi GPU, como el TETRIS por ejemplo, entre otros, pero llevo la razon en q hay juegos optimizados para cada marca y que se ven favorecidos con determinadas arquitecturas de diseño. De todos modos, globalizando, ya que son demasiados las variables a medir, la 5970 sigue siendo la reina! Me considero un equilibrista! Y en si el motivo de mis mensajes fueron para un infradotado que escribio unos cuantos mensajes antes sobre que los ATI fanboys se iban a amtar etc etc… jaja. Todo ok! Exelente el articulo y la pagina se pasa! Un saludo!

MadBox 9 noviembre, 2010 - 18:09

Es verdad el tetris no soporta multigpu XD
gracias, aumenté en una cita anidada más los comentarios para evitar las confusiones 😛

jilo 9 noviembre, 2010 - 14:46

Muy linda la vga, pero me parece un robo eso de que «3D Vision Surround funciona solamente con SLI.». Ojala la vga de ati la empareje en rendimiento por lo menos, asi tendremos guerra de precios.
Esperando la GTX560…………

Archowl 9 noviembre, 2010 - 14:21

de seguro AMD se dejo dar el primer golpe para luego dar su contraataque y dejar nocaut a NVIDIA.
YA VAN A VER Ati rulz

N34R 9 noviembre, 2010 - 13:26

Por el precio que va a llegar a chile prefiero una 5970 que rinde mas, solo que no se le compara en este review con la GTX580 ya que la 5970 es dual core y esta es single core. Hay que esperar a que salgan la serie 69xx y ver a que precio llegan. Pero lo mas probable es que sean considerablemente mas baratas que la GTX580.

InTelliEye 9 noviembre, 2010 - 13:24

sigo estando tranquilo con el SLI de 460.. =)

Gu!ll3rm0x 9 noviembre, 2010 - 12:21

Exelente review!

Go! Madboxpc

Cristian 9 noviembre, 2010 - 12:04

A mi me gusta, aunque ese sistema de disipadores ya lo ví en la 4870…nada nuevo

Fobia 9 noviembre, 2010 - 18:43

Si es por inovacion de refrigeracion hay que decir que todos los sitemas de heat pipe son copias de las soluciones de los notebook y el primer modelo de tarjeta de video en usar esto fue NVIDIA , el sistema lo usaba una Abit siluro OTES , cuando las cosas son buenas… es bueno copiar esos ejemplos ..

cass 9 noviembre, 2010 - 11:59

Todo perfecto el review, la unica pega… tener que leerlo en un sitio llenos de chilenos culiaos

MadBox 9 noviembre, 2010 - 13:02

hay de todo, solo que todos escribimos muy mal y nos mimetizamos XD

Strasto 9 noviembre, 2010 - 16:16

anda a leer a otro lado po saco e caca entonces xD!

harryccó 9 noviembre, 2010 - 11:57

pero que lanzamiento mas apresurado! pense que saldria a la par con las 6970 y 6990 que raro, aun asi esta muy bueno el cambio, esta serie de partida deberia de haber sido la gtx 400, aunque el esperar meses el mercado no perdona y se perderian consumidores, asi que entonces era obligacion lanzarla si o si! 10 w menos algo es algo y estoy casi seguro que AMD respondera de buena forma ante este lanzamiento ahora el precio esta nvidia dificilmente le ganara a la tope de linea AMD una lastima siempre en eso fallan y cuestan mas.

maller 9 noviembre, 2010 - 11:37

execelente review me queda claro que es la tarjetas mas rapida de nvidia pero no de mundo como decia? bueno execelente tarjeta peru muuuuuyy cara mmm.. a hora my 5850 cada dia va cayendo XD esperar las 6970 haber como le ira

renecinho 9 noviembre, 2010 - 11:02

quede 😮 cuando dijo que el procesador le ase cuello de botella siendo que con ese pc no quieres mas guerra
muy buen review como todos los de madbox

660hp 9 noviembre, 2010 - 10:53

Por cierto felicidades a madboxpc es muy agradable encontrar este tipo de revision en español y tan pronto, madboxpc a la altura de cualquier pagina en ingles 😀

saludos

xchanox 9 noviembre, 2010 - 18:11

Yo diría que MBPC está a la altura de las MEJORES paginas en inglés.

Se han ganado el puesto que merecen, aún recuerdo hace algunos años cuando no podían hacer los reviews a tiempo porque no podían conseguir alguna unidad.

Al parecer la excelente calidad de los reviews y la participación en eventos internacionales por fín capturaron la atencion de las empresas para que presten sus muestras a tiempo para las revisiones.

PD: Habrá concurso para ganarse la GTX580? Quiero ver como rinde en mi placa itx

WackMc 9 noviembre, 2010 - 10:43

La VGA mas poderosa y la mas cara del mercado… no hay comparacion con ATI, que si es caro es mas al alcance de la mano de dios…, me encanta nVidia pero sus productos salen al mercado realmente caros, y a Chile llegan al doble de caros por los proveedores, no hay caso con los precios, esta nueva VGA llegara a 350 lucas?? o mas…

Jero 9 noviembre, 2010 - 10:42

Alguien que me aclare esto.

«Notar nuevamente lo mencionado antes, el CPU le hace cuello de botella a la vga. Algo difícil de notar en una single GPU, pero que aquí queda a la vista.»

La vga es mas rapida que el CPU???, WTF??? ocea que que si hay un procesador mas grande la placa va a rendir mucho mas????. EL I7 NO ES LO SUFICIENTEMENTE RAPIDO???

alguien por favor, que me lo aclare

Clockero 9 noviembre, 2010 - 11:40

No, ese i7 con esas frecuencias no es suficientemente rápido 😛

KiusteR 9 noviembre, 2010 - 10:35

Bien ridículo la diferencia entre las comparativas entre las tablas realizadas por Nvidia hasta ahora, y los resultados reales. Pero bueh… ya estamos acostumbrados a estos clásicos métodos de marketing…

PD: Mis felicitaciones por ser unos de los primeros (a nivel mundial) en hacer un review a este mounstro!

Clockero 9 noviembre, 2010 - 10:29

Excelente review, bastante completo 😉

En la parte de consumo, los npumeros que aparecen ahí son solo de la vga o el sistema completo ?

Ya que alcance a ver que en una parte de la tabla decía 500 watts y me entró esa duda..

Jero 9 noviembre, 2010 - 10:37

Em el grafico de consumo dice SISTEMA COMPLETO(WATT).

PD: no bajo casi nada el WATT, pero bueno considerando que se le dio un toque mas de rosca a la placa, no esta tan mal.

Clockero 9 noviembre, 2010 - 11:39

Oh! 😛 gracias

Rodrigo 9 noviembre, 2010 - 10:18

Iba siendo hora de que saliera su famosa serie 400

Buena tarjeta, lástima que practicamente nadie se la va a comprar por que la eleccion más inteligente es rendimiento vs precio.

Ojalá que saquen unas buenas mid/high para que las graficas sigan bajando.

melkor 9 noviembre, 2010 - 09:41

+10 al trabajo realizado, como siempre ustedes estan siempre un paso adelante de otros sitios chilenos, jajaja…

gracias por el trabajo.

la verdad que es terrible lo que anda esta vga, y con mejoramiento de solucion de tempreratura !de fabrica!, gracias!

saludos

PD: seguro vienen los puntitos neg de atisfanboy’s
a callar

rolox-z 9 noviembre, 2010 - 09:37

excelente reviews… podemos decir que Nvidia va mejorando lo que mas se le ha criticado: consumo y temperatura… ahora solo queda ver como rinden las 69×0 y comparar!!!!
las cartas por una parte ya estabn tiradas, veremos que dice AMD en unos dias mas!!!

pekas 9 noviembre, 2010 - 09:28

entonces al no incluir las velocidades de la 5970, es por que es todavia mas rapida que la 580 gtx?

Maury 9 noviembre, 2010 - 17:22

Y vos que crees? Jaja

=Vulcano= 9 noviembre, 2010 - 09:17

Tengo una duda, en la pagina 2 del review, Nvidia dice que tiene 16 motores de teslacion vs 1 de Ati y que estos son los responsables del rendimiento en DX11, entonces por que esto no se ve tan reflejado a la hora de revisar los FPS??? deberia ser muchissisisimo (como diria el chavo) mas superior a Ati y esto no se refleja, seria Hype o una mala utilizacion de estos mismos???? sakenme de la duda.

Jero 9 noviembre, 2010 - 10:49

Es por el tipo de implementacion, al igual que los Stream… nvidia usa 512 y AMD como 1500, y vos decis AMD vuela, y es lo mismo, distintas manera de aplicarlo.

PD: ajajaj me cuasa gracia el grafico de taselacion que la 5870 y la 6870 no llegan al x2, y la otra esta en x10 XD

cabeza de verga 9 noviembre, 2010 - 08:54

aja!!un tarro de vaselina pa que no les duela a los fanboy de AMD ja ja!!

660hp 9 noviembre, 2010 - 08:49

Lo unico malo es su nombre ¿por que llamarle nueva generacion a el mismo chip mejorado de la anterior y %20 mas de rendimiento? y ni 6 meses en el mercado de la anterior y ya ni hablar de las nuevas gtx560, se ve claramente que quieren alejarse de todo el fracaso que fueron las gtx400 (exceptuando la 460 como ya sabemos) pero aun asi crear una nueva generacion para eso, puro marketing…

PD yo me acabo de comprar una gtx460 y parece que para menos de dos meses ya se devaluara, mal por nvidia que en su carrera de tener la mejor imagen no le importa ni los clientes ni los vendedores.

Jero 9 noviembre, 2010 - 10:15

La serie 400, es un fracasO??????, si me decis que salieron mal con el tema del consumo ahi si. Pero no podes decir que no tiene rendimiento. En cuanto a la temp no es asi como se decia que les lavaron la cabeza a todos, hasta yo me morfe que eran SUPER GASTADORAS Y REVENTABA EN TEMP, mi amigo se compro la 480 y si calienta, 88 grados le funca……Con el gabinete que tiene, bien refrigerando……… que placa no llego a 80 grados sin una buena implementacion de REFRIGERACION??, las de AMD la re SAFARON CON EL TEMA DE LA TEMP por la edicion VAPOR X, y HIS, ahora ya no pueden pegarle de ningun lado a la 580, si rinde menos que la 69, y bueno, que se le va a ser, en mi caso siempre gana mi bolsillo XD

Jero 9 noviembre, 2010 - 10:24

Lamentablemente a la tecnologia no le vas a ganar nunca, te compras la ultima y al año o a los meses sacan otra… es medio frustante, pero no quiere decir que la que tengas no rinde.
Lo mejor que se puede hacer en estos casos es lo que hacen algunos que tienen una 4850, o una gtx260, esperan que se devalue el precios de las 5000, 400, y se la compran. Pero bueno, es un caso medio feo, uno quiere poner los graficos en alto y si tenes DX10.1 y te pasan DX11, te comes las unias por tener una para ver como se ve. ESPERO QUE EL DX11 DURA PARA RATO, no me gusta comprarme una VGA, que al año, 2, ya no sirve para poner el juego al mango… por custion de soporte y no de rendiminto.

660hp 9 noviembre, 2010 - 10:48

Fracasó en que la espectacion creada fue tan grande y no cumplio como deberia y mas aun con el tiempo que demoro, esta gtx580 es lo que deberia a ver sido la 480, simplemente la 480 nunca alcanzo los cuda cores que habian prometido y como dije el sacar una nueva «generacion» tan pronto muestra como quieren alejarse de el nombre gtx400 que ya nadie le quita el estigma de ser calientes y super consumidoras, cuando un producto es un exito lo muestras en lo alto, mira que pasa con la gtx460 la publicidad que se le dio, el gran concurso de OC que hubo esa es la muestra de que fue un exito y nadie duda de el gran producto que es, todas las demas gtx400 cumplen y nada mas.

PD. Y si desgraciadamente la tecnologia esta tirando al consumismo de una manera exagerada en los ultimos tiempos ya que con muchisimas tarjetas mas baratas se tiene para jugar al maximo sin problemas, el problema esta en que uno busca su hardware que mas le conviene que mejor rendimiento da y se me hace una burla que de repente te salen con que con lo mismo que pagaste ahora obtienes mas rendimiento, que claro es la historia de toda la vida pero antes era cuestion de años ahora son meses.

Pero bueno no hay que dajarse caer en los juegos de querer tener lo mas nuevo por que cada vez es mas dificil.

Jero 9 noviembre, 2010 - 11:04

Si en el sentido de que la 480 no fue lo que se esperaba ES TOTALMENTE CIERTO. pasa que no miro, no sigo a las empresas, espero a que salgan y ahi miro como les fue, por eso comente lo del «fracaso».
La tecnologia es muy bonita, esta re piola, pero lo entras a seguir, y te come la cabeza, salis convencido de que rinde x100 mas que la anterior, y que la otra empresa es lo peor y hay que quemarla, ajajaj. Me gusto esta mini charla XD Saludos!.

gustavo 9 noviembre, 2010 - 21:37

completamente de acuerdo
anda mejor, si, es más placa, tambien… pero… una nueva generacion???

me parece que no!
si bien el rendimiento es mejor, con mayor beneficio (menos consumo, menos calor y menos ruido), se podria decir que es una GRAN mejora de la anterior, pero no se si una nueva generacion de placas

o sea, PASARON 6 MESES!!!!

parese voodoo esto, que sacaba placas cada rato
lo bueno es que bajan los precios muy rapido asi (y yo todavia no cambie mi placa 😛 )

dnlo 9 noviembre, 2010 - 08:46

me gusto excepto por el diseño de la carcasa, pero eso es lo de menos. Quizás algun dia me compre una tarjeta asi, ahora voy por la gtx560 o la hd6870 dependiendo quien se gane mi bolsillo

KrameX 9 noviembre, 2010 - 08:21

vuelvo a ver el review y los resultados del crysis me encantaron XD

xchanox 9 noviembre, 2010 - 07:21

igual esperaba un poco mas de esta tarjeta, para lo que se rumoreaba la imaginaba rindiendo un 50% mas que la GTX480

interesante el escalamiento con OC en Heaven

Jero 9 noviembre, 2010 - 08:05

Para mi esta bien, si la 480 rendia, rinde y sigue rindiendo, el «punto en contra» que todos decian, era la temp y el ruido, eso a mi me va y me viene, no estas 24/7 con la gpu al mango para que gastes una cantidad exajerada de luz, y con la temp no me jode el cooler de costado le da a los heat pipes y anda mas fresquita. ALFIN SOLUCION PROPIA DE FABRICA DE REFRIGERACION WEEEEEEEEEE (si si, es la vapor x, ya see, pero con esta implementado de otra forma, asi que es innovador, sino los cooler de CPU no serian novedosos, QUE COOLER NO TIENE HEAT PIPES Y ASPAS DE ALUMINIO PARA DICIPACION????????? XD, le cambian forma y tenes una que rinde mas XD.).

Jero 9 noviembre, 2010 - 08:14

QUE GIL LA MANDE EN RESPONDER ajajajjaja salen puntines negativos! XD

cabeza de verga 9 noviembre, 2010 - 08:55

que Jeropa!

Maggie 7 junio, 2012 - 10:48

I’m getting the Xbox and 3DS vesroins so I never really cared about a PC version, but good for those people who were complaining that they couldn’t play it. I guess I’ll just pira I mean get a digital copy to keep on my laptop in case my Xbox dies so I can fool around with mods people defs will be making *Cough*

FiTo 9 noviembre, 2010 - 07:15

Mario, el NDA se levanta a las 6:00 AM PST, no a las 6:00 AM de Chile.

MadBox 9 noviembre, 2010 - 09:30

chuta cual es la diferencia con gmt-3?

KrameX 9 noviembre, 2010 - 06:10

Hermosa, parece que nvidia esta despertando.

Veamos el falcon punch que devolvera AMD XD.

felicitaciones por el review 😉

Add Comment