Review NVIDIA GeForce GTX 570

NVIDIA hace estreno de forma mundial de su nueva tarjeta de video, en esta oportunidad tenemos la segunda variante del GF110, la GeForce GTX 570. Una tarjeta de video que viene a reemplazar a la GTX470 pero con unas especificaciones que la sitúan muy cerca (o sobre) la GTX480. Entérate de su rendimiento en este nuevo review de MadBoxpc.

Con la época navideña encima, y la fecha de la navidad acercandose rápidamente, los fabricantes de hardware necesitan tirar productos atractivos para los consumidores, es por esto, que es una buena estrategia lanzar productos muy cerca de la fecha, ya que aseguran varias compras. NVIDIA lo tiene mas que claro, y lanza esta nueva tarjeta de video con disponibilidad inmediata (Hard Launch) a nivel mundial.

Otra cosa que se promete, es que esta tarjeta es un 25% más rapida que la GTX 470 y además, superior a las HD5870 y HD6870. Todo eso lo veremos en las páginas siguientes. Pero es una buena apuesta por parte de la empresa de Santa Clara, para atraer ese mercado «Performance», que busca un excelente rendimiento. Sin embargo, AMD dió un gran golpe con sus HD6800, ya que las sitúa en un rango de precios atractivos a los consumidores, algo que NVIDIA deberá saber lidiar y sobresalir con un producto que ofrezca un rendimiento que opaque esa diferencia de precio.

Tomando las especificaciones de esta nueva tarjeta, la ponemos a la par de las demás.

Como se puede apreciar en la tabla anterior, esta tarjeta se viene a posicionar a la par de la HD 5870 de AMD en precio y a reemplazar de forma nativa a la GTX 470. Veamos que tal luce y luego esos números que tanto interesan.

Galería Fotográfica

Comenzamos con el empaque, algo que nunca habíamos realizado con un sample, ya que por lo general vienen en cajas de cartón rellenas de espuma y nada mas, pero en esta oportunidad NVIDIA cambió y lo hizo de muy buena forma. Una caja con un diseño navideño, queriendo decir que esta es la tarjeta que será o deberá ser tu regalo de navidad. Una tarjeta navideña de saludos firmada de forma personal por gente de NVIDIA y no una firma impresa, un pequeño pero gran gesto que hace ver la preocupación de esta empresa para con las personas que realizamos esto como un trabajo.

Ahora tenemos ante ustedes la GTX 570, con un diseño muy similar estéticamente a la GTX 580. Comparten muchas cosas, no solo el GPU, sino que el diseño de la carcaza y la disipación.

Vista por detrás luce exactamente igual que su hermana mayor, de hecho es el mismo PCB, salvo algunos componentes SMD faltantes, es idéntica.

Los conectores de video son 2x DVI-i (DL) y 1x mini HDMI 1.4

Tenemos los conectores SLI, al igual que su hermana, esta tarjeta soporta una configuración máxima de 4 tarjetas (4-way SLI).

Esta tarjeta posee 2 chips de memoria menos que la GTX580, es por ello que solo incorpora 1.28GB

Removiendo la carcaza tenemos la tarjeta en su interior, una mejorada «Vapor Chamber» es la encargada de refrigerar nuestro GPU.

Se pueden apreciar algunos componentes menos, como por ejemplo estas 2 etapas de la fase de poder y 2 capacitores.

El chip PWM encargado de regular los voltajes de nuestra tarjeta, es el mismo utilizado en la GTX 580, el CHiL CHL8266.

Un closeup a la camara de vapor, es de mejores dimensiones que la que posee la GTX 580.

Su base es mas robusta y mejor trabajada, de todas formas el principio de funcionamiento es el mismo.

El GPU en pleno, el GF110-275. Este posee las mismas características que el de la GTX 580, pero con una unidad SM desactivada.

Una comparación, arriba la GTX 580 y abajo la GTX 570.

Son prácticamente idénticas, salvo algunos componentes menos en la GTX 570, serían la misma tarjeta.

Finalmente una comparativa de las tomas de poder, arriba la GTX 570 (2x 6pines), abajo la GTX 580 (6pines + 8pines).

Galería Fotográfica: Partners

Hemos querido incluir una mini galería con algunas de las ofertas de los partners que se empezarán a vender a partir de hoy.

[nggallery id=608]

Plataforma de Pruebas y Metodología

Para poner a prueba esta nueva tarjeta de video, utilizamos las siguientes piezas de hardware acorde a su naturaleza y rango de precio.

Hardware:

Software:

  • Windows 7 Ultimate x64
  • ATI Catalyst 10.10 + Hotfix 10.10e
  • NVIDIA GeForce 263.03
  • Unigine Heaven 2.1
  • Futuremark 3DMark Vantage 1.0.2
  • Nvidia Inspector 1.9.4
  • Call of Duty Modern Warfare 2
  • Crysis Warhead (Modo DX10)
  • F1 2010 (Modo DX11)
  • Metro 2033 (Modo DX11)
  • FarCry 2 (Modo DX10)
  • StarCraft 2
  • STALKER Call of Pripyat (Modo DX11)
  • Tom Clancy’s HAWX (Modo DX10)
  • Battlefield BadCompany 2
  • Colin McRae DiRT2 (Modo DX11)
  • Lost Planet 2 (Modo DX11)

Metodología de Testeo

Todos los juegos fueron ejecutados a resoluciones de 1680×1050 y 1920×1200, el nivel de detalle se configuró al máximo permitido por cada juego y el filtrado fue siempre de 4xAA 16xAF, salvo en el caso en que se señale lo contrario.

Las pruebas se realizaron fuera de un gabinete con una temperatura de habitación de 19ºC. Las tarjetas, asimismo el sistema, solamente se mantuvieron ventiladas con sus coolers de fábrica, no se utilizaron ventiladores extras y la velocidad de los ventiladores de las tarjetas de video era controlada vía drivers de forma automática.

La prueba de Unigine Heaven 2.1 se ejecutó con una resolución de 1920×1200 con Filtrado 4x AA y 16x AF, Tesselación Normal.

Resultados de las Pruebas (FPS Promedios)

El bench por excelencia de hoy en día, estrujando nuestras tarjetas con su motor DX10.Vemos que la GTX 570 sufre del mismo problema que la GTX 580, el CPU las limita en su puntaje, esto lo ven cuando la barra roja es mas larga que la azul.

Este bench, aplica un uso fuerte de Tesselado y filtros en DX11, algo en donde Fermi es muy fuerte, y queda demostrado, la GTX 570 es superior inclusive que la GTX 480.

Comenzando con los juegos, en esta oportunidad iniciamos con FarCry2 en modalidad DX10. La GTX 570 hace un buen uso de sus caracteristicas mejoras y rinde casi a la par de la GTX 480.

Crysis es un consumidor de recursos y se ve fuertemente beneficiado de la cantidad de unidades de textura y de memoria integrada, es por ello que esta nueva tarjeta nuevamente anda a la par de la GTX 480. Nuevamente, ni mencionamos a la GTX470 ya que queda relegada a puestos inferiores.

En este juego se aprecia una ventaja de la GTX 570 por sobre la GTX 480, esto es por el aumento de Shaders que posee la GTX570 y sus mayores clocks con respecto a la GTX 480.

Nuevamente esta tarjeta destaca por sobre la GTX 480, tal parece que tenemos una clara candidata a que el Viejito Pascuero (Santa Claus, Papa Noel) la traiga en Navidad.

Este juego en su motor utiliza mucho tesselado y texturas, además de estar fuertemente ligado al sistema en su conjunto. Esto beneficia a las nvidia por sobre las AMD, ya que su motor de tesselado está mejor desarrollado y por ello el mejor rendimiento.

Un juego cuyo motor está basado en DX9 pero que ofrece una buena calidad visual. Es por ello que prácticamente todas rinden similar, en este caso la GTX 570 anda a la par de la GTX 470.

STALKER Call of Pripyat es un juego cuyo motor hace un uso intensivo de Tesselacion en modo DX11. No hay mucho que comentar, salvo que la GTX 570 nuevamente está por sobre la GTX 480.

En este juego, la GTX 570 logra un buen desempeño gracias a sus clocks y a la mejora que tiene con respecto a su predecesora en shaders y unidades de texturas.

Un juego con motor en DX9 que se beneficia mucho de la cantidad de unidades de textura y de la memoria de la vga, además de los clocks. O sea, de toda la vga, es por ello que  la GTX 570 queda por detrás de la GTX 480, a pesar de tener mejores clocks y misma cantidad de Shaders. De todas formas, sigue siendo mucho mejor que su predecesora, la GTX 470.

Este juego DX11 hace un uso intensivo de la cantidad de memoria (Frame Buffer) de la VGA y de las unidades de texturas que posea, por eso, la GTX 570 anda ligeramente por debajo de la GTX 480.

Este juego simulador de Formula 1 está muy bien logrado, la realidad en la calidad visual se asemeja demasiado a las pistas reales. El rendimiento que posee esta nueva tarjeta de vide es excepcional.

Overclocking

Para overclockear esta tarjeta utilizamos la misma utilidad que tuvimos que usar con la GTX580 el día de su lanzamiento, esta nos provee de toda la información que ella posee.

En la imagen anterior tenemos los datos de la GTX 570 en condiciones default.

Luego de mucho probar y de colgar los drivers por alguna configuración inestable, se lograron los siguientes numeros. Estos suponen un incremento de 12.5% en el GPU, 12.5% en los shaders y 7.8% en las memorias. Veamos en cuanto se reflejan estos porcentajes en algunos de los juegos y benchs.

Como se puede apreciar, el aumento es considerable y sitúa a la GTX 570 muy cerca de la GTX 580. Rendimiento similar por casi $150USD menos.

Consumo y Temperatura

Recordemos que NVIDIA agregó un circuito de protección mejorado el cual limita el consumo de la tarjeta, para mantenerla dentro de los límites en la GTX580 y también en esta GTX 570. Esto lo hace mediante una cadena en los drivers y detecta cuando aplicaciones como Furmark u otras similares intentan llevar el consumo del GPU a las nubes, limitando los clocks y voltajes para que ello no suceda.

Sin embargo, con el GF110 ya mejoró ese aspecto del consumo gracias a esa circuitería y se mantiene en esta tarjeta.

Como se puede apreciar de la grafica anterior, esta GTX 570 mantiene un consumo alto, pero menor que su hermana mayor, la GTX 580.

Temperatura

Con la aparición de la GTX580, nvidia mejoró el tema de la temperatura en su tarjeta, esto fué gracias a que incorporó un sistema llamado Cámara de Vapor (Vapor Chamber). Como es sabido, si funciona se repite, el mecanismo de refrigeración es el mismo que utiliza esta nueva tarjeta.

Con la tarjeta fuera del PC y con una temperatura ambiente circundante de 19ºC se obtuvieron las siguientes temperaturas de operación.

Idle: 34ºC (Fan Auto @45%)

Full: 79ºC (Fan Auto @56%)

Full: 53ºC (Fan Manual @85%)

Full OC: 66ºC (Fan Manual @85%)

Las temperaturas estan dentro de un rango aceptables y no son tan altas como sus primeras contrapartes Fermi, las cuales fueron muy famosas -para mal- por sus elevadas temperaturas.

Palabras Finales

Luego de la salida de las AMD Radeon HD 6800, la gente quedó esperando una respuesta de NVIDIA para ese segmento de precio o al menos a alguno que le hiciera el peso y pudiese crear alguna confusión a la hora de elegir si ir por una u otra.

La aparición de la GTX 580 fue un golpe fuerte, ya que presentó su mejor tarjeta de video single gpu, por lo que era cosa de tiempo que saliesen las tarjetas basadas en ese mismo núcleo pero con ligeros recortes. La primera en aparecer es la GTX 570, que de forma similar a la GTX 470, es una versión disminuida de la tope de línea. Lo bueno es que se sitúa en un precio menor, $349USD (el mismo precio que poseía la GTX 470 cuando se lanzó) pero no lo suficientemente bajo para desbancar a la HD 5870.

El rendimiento obtenido a lo largo de las pruebas la convierten en una buena alternativa si buscas algo no tan caro como las tope de línea pero tienes como pagar la diferencia que hay contra una HD 5870. Otro factor importante es que en un par de días aparecerán las próximas Radeon HD6900, que muy probablemente serán las que compitan tanto con la GTX 580 como con la GTX 570.

La temperatura estuvo dentro de rangos aceptables, el uso de la cámara de vapor y una mejor administración del consumo, convierten a estas nuevas GeForce en unas tarjetas completamente diferentes a lo que uno pudiese pensar al mencionar la palabra Fermi.

En lo referente al overclock, esta tarjeta nos dió un 12% de incremento en el GPU y solamente un 8% en las memorias, quizás con un aumento en el vgpu se logren mejores números. Esto se notará cuando aparezcan los modelos con overclock de fábrica.

En resumidas cuentas, esta GTX 570 logró cumplir con lo que todos pedimos por una nueva tarjeta, que es ser mejor que su modelo anterior. Además logró sobreponerse ante la ex tope de línea, como lo es la GTX480. Por ahora se sitúa solita en el segmento de precio de los USD 350 pero los vale ya que aún cuando es más cara que la HD 5870 rinde por lo menos un 20%-25% más.

Related posts

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

Samsung lanzó oficialmente la serie Galaxy Book4 en Chile

Review Asus Zenbook Duo 2024 (UX8406M)

61 Comment

NVIDIA GeForce GTX 570 Launch – MBReview 8 septiembre, 2020 - 09:46

[…] GeForce GTX 570 @ TweakTown (Gainward)NVIDIA GeForce GTX 570 @ OC ClubNVIDIA GeForce GTX 570 @ MadBoxPCNVIDIA GeForce GTX 570 @ Bjorn3DNVIDIA GeForce GTX 570 @ Tech ReportNVIDIA GeForce GTX 570 @ TBreak […]

felip0mm 9 diciembre, 2010 - 08:47

100 Dolares mas barata y rinde similar, buena opcion si no queremos comprar la mierda de amd

Julio 9 diciembre, 2010 - 10:27

Otra vez, son ridiculos al ser fanboy de una marca, lo importante es lograr el mejor performance con el menor dinero, no se porque todavia se hechan mierda si al fin los dueños de una u otra marca son siempre los mismos, lo importante es lo que puedes obtener con con el menor gasto.Nuevamente indico que ambas empresas tienen muy buenos productos, pero Nvidia es mas cara y necesitas mas fuente.
Si eres un ser de pocos recursos AMD, pero si estas forrado de dinero y no te importa la cuenta de luz Nvidia, total sobre 40 FPS el cerebro no se da ni cuenta…….

Saludos

Jero 9 diciembre, 2010 - 17:11

Oflojenlen con esa estupides de la cuenta de luz, si benchean todo el dia, son unos enfermos. Concuerdo con vos en que Nvidia es mas caro, y AMD llega a otro sector, pero de si estas forrado de dinero podes comprar Nvidia ESTAS MUYYYYYY equivocado, si podes gastarte 1300 pesos en una 6850 podes juntar un poco mas y comprate una nvidia, partamos en lo basico, TODAS ESTAN CARAS,pasa que de tanto leer comentarios FANBOY sobre nvidia, te lavan el cerebro y terminas diciendo todas esas estupideces, esto no quiere decir que seas fanboy, solo que se te pegan los comentarios.

JVortex 8 diciembre, 2010 - 12:54

gogo MADBOXPC midan consumo JUGANDO para ver su consumo real.
A muchos de nosotros nos da flojera (y tb cuesta dinero) andar cambiando una fuente de poder por causa de una nueva vga porq SUPUESTAMENTE consume más.

Ojalá hagan un review para intentar desmentir esto del consumo de una vez 🙁

Jero 8 diciembre, 2010 - 14:00

+1389123926137613978, yo me compre la fuente XFX 750W por eso, porque me comi todo eso, pero cuando me compre el zalman y vi el consumo que tenia…. dije…. pero la %@$%*! %*!%@$, lo maximo que llego son 300w no pasa de ahi, no probe benchiar, pero me compre tremenda fuente al pedo!!!!!!!!!! (ando con mucha bronca, y a la vez feliz que no me renviente la pc)

klass 8 diciembre, 2010 - 12:03

compadre Jeroo hombre estoy deacuerdo con usted, tengo un amigo q tiene la EVGA 470 y no es muy caliente la cosa 80° a 70%rpm, y eso q yo vivo en la costa de colombia

Jero 8 diciembre, 2010 - 12:20

80 grados es lo que normalmente se ve en una placa stock, ni me quiero imaginar el calor que debe hacer por ahi. Un saludo

Jero 8 diciembre, 2010 - 11:38

Gente de Madbox me gustaria que hicieran un review de una 470 stock o 480, con una 570 580, y midan temp y consumos JUGANDO, en una plataforma limpia con windows estable y demas.

Hacen buenos reviews, pero a partir de ahora agregen el consumo/temp mientras se JUEGA, no mientras BENCHEA, porque las personas no tiene porque comerse esas cosas, ni mucho menos ser criticado por comprarse una placa «supestamente» con un consumo hyper elevado, y unas temp por las nubes… Un saludo!

gerion07 8 diciembre, 2010 - 09:54

buena sera, pero Nvidia sigue sin sorprenderme… priorizo la eficiencia antes que la fuerza bruta (precio/rendimiento/consumo) si Nvidia sacara vga con menos consumo, mas frias y mas baratas, AMD tendria un serio problema… pero como eso no pasa, me seguire inclinando por Radeon HD.

Jero 8 diciembre, 2010 - 11:31

Estas equivocado las series 400 ni ahora mucho menos las 500 calientan y consumen… esas prueban se vasan en benchmarck… vos no usas bench vos jugas esta sen internet es distinto, EN LA VIDA COTIDIANA jugango mirando pelis hacindo lo NORMAL no calientan como dicen que calientan, ahora si le stresas la GPU con un programa y se aumenta el consumo es problema tuyo, yo se lo que digo, tengo una 470 y mi amigo la 480, FERMI llego como debe ser… ahora pusieron el chip de consumo/corriente para que no critiquen bludeces asi no se stresa en futur marck en programas de stress.

Juampi23 7 diciembre, 2010 - 18:18

Me convenció bastante la tarjeta, está lejos de ser el ideal, entre otras cosas porque el consumo sigue siendo elevado, si bien se mejoró respecto a Fermi, sigue sin convencerme.

Las temperaturas están bien, no es paa, la tarjeta trabaja helada, pero está lejos de los hornitos vestidos de placa de video que eran las Fermi.

El rendimiento es muy bueno, está a la par (y hasta supera) a la GTX 480, así que por ese lado nada para reprochar, lo que si esperaba un poco más de márgen de OverClock, igual no es un aspecto muy significativo, excepto obvio para los fanáticos del OC, yo no soy uno de ellos.

Y por último el precio tampoco es el ideal, pero era previsible que iba costar lo que cuesta.

Entonces, ¿¿cuál es mi conclusión??…

QUE SALGAN YA LAS 69XX DE AMD!, jeje, y que superen a estas, cosa que Nvidia tenga que bajar el precio medio de apuro, ya que la tarjeta como dije al principio me convenció bastante, entonces si llega a pegar una baja de precio, listo, podría llegar a comprarla.

Vendo una MSI GTX 460 Cyclone OC 1GB, ¿¿alguien está interesado?? xD, jeje no mentira, hasta no salir la gama alta de AMD no pienso poner en venta la mia y comprarme la 570, esperaré primero ver que tiene preparado AMD.

Saludos

Jero 7 diciembre, 2010 - 18:42

Que el consumo no te ciegue los ojos, yo tengo la MSI N470 Twin froz II, con el Zalman ZM-MCF3, mi computadora completa depende el juego ronda los 240-300w.. y segundo review la placa alcansa 380W, eso es cuando lo estresan al 100% con 3dmarck o futur, no cuando pones un juego y ves peliculas.

Y la temperatura… se te calineta la placa???, comprate un gabinete decente, porque la N470 me ronda los 60 juega todo 1080p, la comun capas 75-80ºC.. seria acorde a lo que se viene viendo de las placas de stock. Tengo el Gabo CM 690 NE, el cooler de costado es lo mas!

Juampi23 7 diciembre, 2010 - 19:07

Claro, te entiendo, pero o sea…o hay una complot contra Nvidia, de tildar sus placas de consumidoras, etc, etc, etc. o REALMENTE consume más que las Radeon, entonces acá la cuestión no es una cifra, no es si consume 100 o si consume 300, si dice que consume 350 y en realidad consume 250, la cuestión es que vos tenes que comparar el producto con la competencia, eso es indudable, y al comparar con la competencia veo que en las gráficas las Radeon siempre están por debajo de las Nvidia en consumo, claro que ahora es un tanto injusto comparar, porque la comparación de la 570 sería con la 5870 y si bien consume más, también rinde más, entonces comparar actualmente es un tanto injusto, habrá que esperar a que salgan las 6950 y 6970 para ver si realmente Nvidia sigue con consumos altos o no.
Pero lo visto hasta ahora es que sean las cifras que sean, más que AMD consumen.

Por otro lado de las temperaturas no me quejé!, o sea…los puntos que me parecieron mejorables fueron:

-Consumo
-OverClock (no me interesa demasiado, pero está clarísimo que no es una tarjeta OCera, tampoco es un fiasco en OC, pero no resalta en este aspecto
-Precio (no está tan mal, o sea, no es una tarjeta muy cara pa lo que ofrece, no, ni ahí, pero igualmente me parece que Nvidia podría haberla lanzado algunos dólares menos.

Pero ya te digo, el global de la tarjeta me gustó pila, la tarjeta me gusta, simplemente me parece que está lejos de la perfección, porque el consumo, márgen de OC y precio me parece podrían ser mejores.

Igualmente como dije, habrá que esperar a ver las HD 6950 y HD 6970 pa sacar conclusiones definitivas de quien encaró mejor esta segunda generación de tarjetas DX11.

Saludos

Jero 8 diciembre, 2010 - 09:28

Lo dela temperatura fue por decir que es lo que mas se queja la gente, no era comentario para «bardearte» por asi desirlo, era para que no te dejes influenciar, yo no digo que la serie 400 no consuma es todo mentira, si es verdad consumen.. pero en los review las mediciones los hacen con programas de stress, no en la vida cotidiana.

Vos decis que se debe comparar con la copentencia.. me parece barbaro, es verdad, compara en la vida cotidiana y vas a ver que nvidia solo esta 10-20watt mas arriba que AMD cuando jugas no 80-100w se entiende??, proque la placa sin que le metas un programa de stress nunca alcansa ese wattage, ni la temp maxima.

Lo del precio no te discuto claramente es mas caro ahi no influye en nada… solo cuando salen las otras generaciones XD

Jero 8 diciembre, 2010 - 10:18

Sino mira este link… lo que digo es cirto yo mido el consumo de mi pc pero aca esta claro

https://www.chw.net/2010/03/nvidia-fermi-gtx-480470-la-polemica-del-consumo-y-nivel-de-ruido/

Damien preguntó a NVIDIA por qué el consumo de energía es mayor que el oficial de 250W TDP. Y NVIDIA ha respondido que el TDP es el consumo máximo de potencia durante una sesión de juego y no es el máximo consumo de energía de la tarjeta.

obiando la parte que puse entre «», porque los muy ***** no se dieron cuenta que en el crysis BENCHMARCK=100%STRESSS no es uso cotidiano!!!!!!!!!!!!!!!!!! se ve que no entendieron sesion de juego!

Ocurre justo lo que muchos sospechaban, Nvidia usó una medida muy distinta para informar el consumo de sus VGA, la cual no se basa en el consumo máximo real, «»»»sino en el consumo de una situación promedio la que muy probablemente sólo se cumpla en determinadas condiciones de laboratorio, muy difíciles de reproducir por un usuario común tal como se aprecia en el review de Anandtech, ni siquiera bajo Crysis donde aún supera el consumo de una ATI Radeon HD 5970 la cual se sabe tiene un TDP de 294W»»»»».

En sintesis… los review no sirven para nada, todo datos erroneos… como va a ser uso cotidiano usar el 3dmarck futur marck??? cotidiano quiere decir lo que haces todos los dias… tomas un cafe, vas a algun lado. Como van a poner que dificilmente se consiga en una prueba de laboratorio… y ahora nvidia los cago a todos proque save que hiso???? saco el chip de Consumo/corriente para que en el futur marck 3d marck, programas de stress no se dispare como se hacia asi no critican boludeces, aflojenlen al foro y al fanatismo a los que hablan sin fundamentos.

Neferzix 10 diciembre, 2010 - 10:48

Amigo la relación precio rendimiento no es un mecanismo de marketing, si Nvidia tuviera unas solución ganadora en teste aspecto estaría alardeando de ello, vendo equipos de alta gama y antes de entregarlos a mis clientes los someto a duras pruebas de estabilidad y rendimiento,por lo que te puedo asegurar que al final sea una 5870 o gtx 480 no representan diferencias marcadas que mejoren la experiencia del juego, en cuanto al nivel de consumo te aseguro que es un aspecto muy importante a tener en cuenta, pero eso varia en función del tiempo que pasas frente a los juegos, si dos tarjetas rondan precios similares y rendimientos similares pero una con sume un 30% mas que la otra y ambas tarjetas tienes como destino equipos con similares características de consumo y horas de juego el resultado es simple, aunque ambas soluciones al momento de la compra cuesten lo mismo imagina ese 30% extra de consumo energético en un año, que es la vida promedio de una vga antes de ser renovada, al final terminaras adquiriendo algo que a la larga tiene un coste mayor

Nigrahs 8 diciembre, 2010 - 04:14

Aquí se nota como los ATI fanboys están desesperados! Ni siquiera leen el review y ya vienen a tirar mierda.

GTX570 > 5870 = Precio/rendimiendo/consumo

¿De que consumo alto hablan? El review deja claro que a lo más consume 15 watts más en Load que una 5870 y más o menos la misma cantidad menos en Idle.

Esa diferencia de consumo no refleja ni el 3% y la diferencia de Performance es 25% superior respecto a la 5870.

Una recomendación ATI Fanboys: Dejen de gastar su tiempo acá con la verborrea fanboy… Por que no se van a escribirle Emails a AMD para que lanze las 69XX de una ves por todas!

Jero 8 diciembre, 2010 - 09:32

Che leiste como el reverendo ojete, me respondiste a mi, como diciendo que no leo el review, los ATI fanboys??? donde viste un ati fanboy con una MSI N470 Twin froz II ajaja cualquiera!, lee de neuvo, o por ahi te confundiste de «responder» XD, A POR AHI FUE ESTO, «y segundo review la placa alcansa 380W,» LO DECIA POR LA 470 NO POR LA 570 AJAJAJJA

john 7 diciembre, 2010 - 17:55

todas valen callampa porke mi nvidia 9800 gt es la mejor wuajuajuajajuaju (H) (H) (H)

Hermann Pempelfort Vergara 7 diciembre, 2010 - 16:43

Va a estar entretenida esta guerra de GPU’s esta navidad :P, yo por mi parte no comprare ni una pq ya tengo suficiente con mi CFX de 5770

HyperionZ 7 diciembre, 2010 - 16:30

En linux si te doy la razon tengo problemas para actualizar los drivers ATI para centOS por lo demas ando bien juegos y calidad de imagen, cuando sacaran un VGA con una entrada de corriente ya que esta de moda hacer cosas pequeñas con alto rendimiento esto tambien se debe traducir a estos componentes,
De nvidia me interesa el PhysX pero como afecta al rendimiento minimo tendria que tener un par de estas para apreciar esos detallitos tampoco son la gran cosa.

GatitoMimosin 7 diciembre, 2010 - 18:30

QUE PHYSX NO ES LA GRAN COSA?? que hablas oye!!!! que sacrilegio!!! jugar batman con physx al maximo, mafia 2 con physx al maximo, metro 2033 y etc jugar juegos con physx no es lo mismo, si tu no notas la diferencia o bien estas loco o estas ciego……

fckCORE 7 diciembre, 2010 - 15:52

Nvidia hace bastante que tiene un «plus» en contra de ati, OpenGL, nvidia rinde muy parejo en OpenGl y DX, ATI mucho menos en openGL (ni hablar con sus driver un linux…)

zB.Fs 7 diciembre, 2010 - 22:55

Definitivamente de acuerdo…

diegogmx 8 diciembre, 2010 - 02:08

si yo uso linux y la verdad q los drivers son un dolor de huevo, si bien fueron mejorando todavia andan en pañales, lo que compensa la superioridad del hardware

dgn 7 diciembre, 2010 - 15:48

cuanta guita que ten..go
cuanta guita que ten..go

klass 7 diciembre, 2010 - 15:12

mi hermano tenez toda la razon………. deberian sacar una serie buena bonita y barata que no nos perjudique tanto a los consumidores, me acuerdo aquellos tiempos cuando la serie 6 duro 3 años yo tube la 6600gt y nunk me queje, ahora tengo una gtx460 la compre hace un mes y ps ahora se desvaloriza muy rapido…… ashhh q vaina……….. de todas maneras queria escribir algo sobre este review y es q

AMD Radeon: «LIDER» en consumo y rendimiento….. son especialistas cuando se trata de temperatura y Watts, desde la serie 5xxx para aca, la verdad es q consumen poco para tan buen rendimiento bien por AMD 🙂

Jero 8 diciembre, 2010 - 12:11

PFFFF «LIDER» consumo/rendimiento… por favor… dejen de mirar review y foros de fanatismo porque estas del tomate, en la vida cotidiana vos jugas, navegas,etc. no estas benchiando todo el dia, y si te fijas mira todos los review miden temp y consumo mientras benchean, esto hace que la GPU llegue a su 100%extreme y de esos valores, pero EN LA VIDA COTIDIANA esta 10W mas arriba que AMD nomas, no me crees???, pasate una vuelta por el comentario 40+ ahi te saco todas las dudas

striker_gt 7 diciembre, 2010 - 14:55

Atentos fanboys a la nueva tarjeta de serie 69xx de AMD.

Será espectacular!

Arkant0s 7 diciembre, 2010 - 14:54

Por que no sacan una linea definitiva, y que sea completa, hace algunos años ya es una lata el tema de las tarjetas de video, sacan nuevos modelos, que solo aumentan un 10% de rendimiento, no solo lo digo por nvidia, tambien por amd, entiendo la competencia, pero el que quiere renovarse y ahorrar dinero, no puede, y para que hablar de como se desvaloriza el hardware, ahora que lo pienso los unicos que ganan son los fabricantes. Es como con los plasmas, despues los lcd, primero hd, despues los full hd, despues, los led, y ahora con 3d. Si van a hacer algo haganlo bien altiro.

Fobia 7 diciembre, 2010 - 16:13

El problema es la gente pava que necesita estar a la moda o a las tendencias ..es decir creen que por que salio una nueva ati o nvidia su mundo se morira si no la tienen ..
Una empresa no esta ni ahi con eso , solo les interesa vender y vender ..y son los funboy los que se pisan el palito ..

FigoSuzuki 8 diciembre, 2010 - 14:26

Eso se llama ley de mercado…
Se hace mucho más rentable así…

Neferzix 10 diciembre, 2010 - 10:25

Amigo disculpa, pero el remdimiento al menis en la Familia ATi en cada generacion no es en torno del 10% si buscas por internet veras que de una 3870,4870 y una 5870 hay mucho mas que eso no hables sin fundamentos.

Gms 7 diciembre, 2010 - 13:41

Seria el colmo que Nvidia no le ganara en estos momentos a AMD. Pues la tarjetas de AMD salieron hace mas de un año, y hasta ahora es que Nvidia saca algo para competir contra ellas… -_-

Melkor 7 diciembre, 2010 - 13:28

la verdad que menos mal que nvidia esta avanzando …. jejejjee

me imagino los ati’s fanboys …

en fin … ya estoy sacando numeros para cambiar mi 5770 que tantos buenos ratos me dio

kevin 7 diciembre, 2010 - 18:09

Fanboy de Nvidia usando ATI?? =O

Jebuzz 7 diciembre, 2010 - 12:36

me parece que las comparaciones estan demas si la 6870 no es la que reemplaza a la 5870

KrameX 7 diciembre, 2010 - 12:27

excelente review :cheers:

como comentaba ayer, nvidia parece que se esta poniendo las pilas, sacando cada vez mejores productos, lo que da mas competencia y a la larga favorece al consumidor final.

Esperemos la respeusta de ATI que junto con sacar las 6850 y 6870 ha estado muy discreta.

saludos

Abx 7 diciembre, 2010 - 12:24

tiene muy buen rendimiento pero para mi por lo menos prima el rendimiento/precio/consumo.

el consumo es muy importante en mi caso asi que paso.

sin contar el costo al cual van a llegar lo cual no creo que sea barato

HyperionZ 7 diciembre, 2010 - 11:30

Fuera de que tubieron tiempo ya sacar 10fps, su nueva forma de refrigerar que dicho de paso no es nueva en idle 34 grados esta bien pero el Fan a 45% ya es bastante audible y en full 85% WTf que ruidosa debe ser y ahora que se viene el verano ni pensarlo a cuanto subira.Ya no es tan calentona pero si es ruidosa.

Martín 7 diciembre, 2010 - 11:23

Seamos realistas.
Estuvieron 2 años para sacarle 10 FPS de diferencia a la 5870? me parece poco.

n00baz0r 7 diciembre, 2010 - 15:58

Si mal no recuerdo la GTX480 le saco mas de 10fps y tardo menos de 6 meses. Que la comparación aquí en Madboxpc sea con una 5870 es otro tema.

De hecho la comparación debería haber sido con las 69XX, lastima que aun no existan. Quien esta atrasado ahora? 😀

Martín 7 diciembre, 2010 - 16:02

Sacar refritos retocados es fácil, hacer un nuevo chip de cero es bastante dificil.

n00baz0r 7 diciembre, 2010 - 16:18

«Nuevo chip de cero» hahahahah WTF! todavía hay gente tan ingenua en este mundo? En todos lados es sabido que las 6XXX se basa en la misma arquitectura que las 5XXX. Nvidia lo hace y AMD igual. Si se pasaran creando chips nuevos no ganarían nada…

zB.Fs 7 diciembre, 2010 - 22:54

nvidia, intel, amd, via, s3, samsung…

todos lo hacen.

Si los chips se fabricaran desde cero cada ves que dichas empresas quizieran actualizar su linea, probablemente ya tendriamos algo tan enfermizo como discos en estado LIQUIDO basados en nanobotica avanzada, donde cada nano almacene 100 mb, calculado al tamaño del contenedor de 2.5 o 3.5 pulgadas los SSD actuales de 3 tb serian como los ya disfuntos de 4 platos y 4 gb.

para que hablar de micro procesadores…

Martín 7 diciembre, 2010 - 16:09

Y por cierto, vos queres ver como es la comparación con las 6900? imaginate que la 6870 le pisa los talones a la 5870, imaginate la serie 6900 le va a hacer la cola.

n00baz0r 7 diciembre, 2010 - 16:48

Si veo como la 6870 le pisa los talones a la 5870 lo cual a simple vista es bien ridículo (pesimo nombre de modelo o trampa de marketing?) En fin, si leíste bien el review al final dice clarito que la 570 es 20 a 25% mas rápida que la 5870 por lo tanto tu comparación no tiene ninguna coherencia…

ChundomanX 7 diciembre, 2010 - 17:06

le saco 10fps y 160 dolares menos ya que por si no lo sabes son productos completamente distintos de gamas completamente distintas

kakumen 7 diciembre, 2010 - 11:15

ooo esta excelente el review muchas gracias! ahora a esperar las ATI HD 6900

chotogrosso 7 diciembre, 2010 - 11:14

ajaa!! como te quedo el culooooo! ATI fanboy! ja ja!!!!

Julio 7 diciembre, 2010 - 12:10

Pero en consumo y precio pufff, ni considerarlo……fanboy de nvidia, yo aun sigo con la opcion precio/rendimiento/consumo y nvidia se aleja de todo eso….

Makoto 7 diciembre, 2010 - 15:17

La 460 GTX entra en ese reglón del que tu gustas o me equivoco?

Martín 7 diciembre, 2010 - 16:05

Si, pero tenes 1 sola opción posible.
En cambio en ATI/AMD cuántas tenes?
Sin contar la serie 6000.
La 6800 fue un boom en el precio-rendimiento.
Por 350 dlls. tenes lo que rinde una VGA de 550 y el consumo de una gama media.

SATAN 7 diciembre, 2010 - 22:53

gtx 460.. buen precio para el rendimiento que da…
pero el consumo!! y temperatura..

habra q esperar la serie HD6900 para ver la verdadera batalla

maurinio_28 8 diciembre, 2010 - 00:17

Es verdad, siempre dije q la 460 fue lo mejor que hizo N-Vidia, es lo mas aprecido a una ATI. Negative points!!!!

Guillermo 8 diciembre, 2010 - 00:27

Por mi parte prefiero que Nvidia lance productos de Nvidia y AMD productos de AMD y no se anden viendo ni copiando entre si para ver que andar lanzando, por ejemplo una gtx 480 consume y rinde pero es una VGA cara, asi que hipoteticamente tenes por lo menos una fuente de 850 watt como para ella

GatitoMimosin 7 diciembre, 2010 - 18:24

ati te gusta el precio rendimiento consumo? sacrificando graficos horribles, sin fisica, sin 3d, sin cuda, si aa a 32x y etc… como se nota que no eres un gamer, te fijas en precio rendimiento consumo y mas que seguro que la luz la paga tu vieja

ChundomanX 7 diciembre, 2010 - 16:57
Nervdarkness 7 diciembre, 2010 - 18:04

completamente fuera de lugar… por giles como estos los consumidores se ponen la remera de una empresa y discuten los domingos de quien corrios un juego a mas FPS… dan lastima, sin mencionar su ignorancia tecnica.

Bien por el Review! siempre a dia.

ChundomanX 7 diciembre, 2010 - 18:16

creo que ubiera sido menos troll que pusieras «pimedo»

Add Comment