Radeon HD 6990 será mejor que la GTX 580

Finalmente los de KitGuru remediaron su error, en un principio decían que la AMD Radeon HD 6970 sería mejor que la GTX 580. Pero al parecer leyeron mal, y la tarjeta que será mejor que la GTX 580 es la nueva Dual GPU de AMD, la HD 6990 (Antilles). La HD 6970 poseerá un precio menor que la GTX 580 y rendirá menos que la GTX 580. Será por eso tanta demora? [KitGuru]

Related posts

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

Samsung lanzó oficialmente la serie Galaxy Book4 en Chile

ASUS presenta la Nueva Zenbook Duo: Experiencia de Doble Pantalla que Transforma la Productividad y la Creatividad

60 Comment

Ignacio 25 diciembre, 2010 - 11:28

Pienso que la radeon HD 6990 sera monocore osea Cayman con 1920 shaders, y el modelo dual seria la HD 6990 X2 con dos core HD 6950 de 1408 shaders.

Gabito 19 noviembre, 2010 - 20:51

Yo, por todo lo que leí, opino que tanto ATI como Nvidia tienen pros y contras…

Nvidia tiene más calidad visual en efectos especiales. La mayoría de los videojuegos están diseñados para placas Nvidia. Un ejemplo de esto son los juegos que usan la tecnología Physx. ATI no pudo ni emular eso… Así que para videojuegos, diría que se quedó un poco atrás… Otra ventaja es que los drivers de NVidia se actualizan más seguido.

ATI sin embargo, tiene mejores precios, y un mayor rendimiento tanto en consumo como en velocidad. A mi lo del consumo eléctrico no me interesa, pero si la temperatura… Porque si querés overclockear una 580 GTX corrés el riesgo de quemarla (o al menos dañarla), por más coolers y sistemas de refrigeración que le mandes… Con ATI me sentiría más seguro porque calienta menos… Y con respecto al rendimiento, un ejemplo es un software desarrollado por ElcomSoft para obtener contraseñas WPA por fuerza bruta utilizando el GPU de la/s placa/s de video. ATI va a la cabeza con la HD 5970, que procesa 103000 contraseñas por segundo. De NVidia no tengo números muy exactos, pero por lo que leí logra tan sólo la mitad. Aunque en videojuegos los fps están bastante más peleados, el que busque rendimiento para tareas más profesionales (como el diseño 3D), debe elegir sin duda una ATI.

Así que no defiendo ni a una ni a otra… Cada una va por su camino, buscando liderar el mercado, pero actualmente a mí en particular, no me convence ninguna… Como dije anteriormente, las dos tienen sus defectos y virtudes.

Que alguien me corrija si estoy equivocado.

Saludos

GatitoMimosin 20 noviembre, 2010 - 00:09

Yo te corrijo señor bruto; en juegos HOY no solo se usa physx sino tambien cuda para efectos; ambas patentadas por nvidia asi que si compras AMD olvidate de estos efectos, que ati tiene mejores precios? sera donde vives tu porque en latinoamerica los precios son casi iguales, unos dolares mas o menos pero estan por ahi, NVIDIA siempre ha sido mejor para overclock que ATI, esto ha sido siempre sino que lo digan los continuos records mundiales que obtiene nvidia, HOY las 10 pc mas potentes del mundo, todas usan nvidia y ninguna ATI, y usan la 480 que segun tu se malogra con overclock, QUE BRUTO ERES!!!! en fin… y por ultimo la 5970 es una doble GPU, elcomsoft segun su web oficial se obtienen mejores resultados usando nvidia pero no seria raro que 2 gpu saquen mas passwords que una, si solo medimos FPS la 5970 es la tarjeta de video mas rapida del mundo, pero… es doble gpu, es recontra mala para overclock, no consiguio ningun record mundial y no soporta cuda ni phsyx ni 3d, pero si eres bruto y solo te fijas en fps pues si es la mas rapida, los juegos se ven horribles pero es rapida

Gabito 20 noviembre, 2010 - 01:30

Yo dí mi opinión por todo lo que he leído, sin faltarle el respeto a nadie. Vos gatito, de mimosin no tenés nada. Ya le venís faltando el respeto a varias personas, como si fueses dueño del lugar o algo así. Se nota que sos un gamer fanboy de Nvidia. Yo puede que en alguna que otra cosa esté equivocado, pero la idea acá es compartir nuestros puntos de vista, y no creersela de experto insultando a medio mundo…

No puse a CUDA de ejemplo, porque ATI tiene un sistema similar de procesamiento, llamado ATI Streaming Computing

(¿Lo conocías?)… Funciona parecido a CUDA pero no tiene Physx. Si no me entendiste, buscá, leé e investigá más del tema. Igual en mi mensaje anterior aclaré que con ATI los efectos en los videojuegos no son de lo mejor (aunque tampoco hay taaaaanta diferencia como vos decís). ¿Probaste alguna vez una ATI o sólo las imaginás en tus pesadillas?

ATI tiene mejores precios… Yo vivo en Argentina y obviamente como siempre, lo último del mercado sale un ojo de la cara (entre tanta demanda, impuestos aduaneros y comerciantes aprovechadores, es lógico). Pero si comparás los modelos no tan recientes, te vas a dar cuenta que ATI tiene mejores precios que Nvidia. Coincido plenamente con Jonatan, en lo de dos 6870 en crossfire le pasan el trapo a la GTX 580. Los benchmarks no mienten.

Hasta el día de hoy, la GTX 480 es la placa de video fabricada para uso hogareño que más ruido y calor genera…

Llegué a ver un video en Youtube en donde intentarón hacer un huevo frito con dos de esas en SLI. Luego de

recibir tantas críticas, los chicos de Nvidia se pusieron las pilas y lanzaron la 580. ¿Por qué al número del modelo le suman 100 más si la arquitectura es prácticamente la misma? La respuesta: Puro marketing. Es

muy similar a la 480, sólo que trabaja con más eficiencia, logrando funcionar entre un 10 y un 15% más rápido, y la limitaron para que no vuelva a calentar tanto.

Si, las Nvidia de ahora son monoGPU y tienen sus ventajas y desventajas, ya lo aclaré. Coincido con muchos,

que esas pueden ser más estables en lo juegos de ahora, pero que los futuros juegos estarán diseñados para un mejor desempeño en placas multiGPU. Pero ATI le ganó de mano a Nvidia lanzando antes la de 2, y bueno…

Yo esperaré a ver que tal serán las Nvidia con 2 GPUs, que les tengo más fé que a todas las de ahora. Pero esto siempre será la batalla que nunca termina… Al igual que Intel vs AMD.

Jonatan 13 noviembre, 2010 - 15:14

según varios reviews que estuve leyendo 2 6870 en crossfire le ganan considerablemente a una gtx 580 y sale un poco más barato encima (por lo menos teniendo en cuenta los precios de ee.uu.)
https://www.hardwareheaven.com/reviews.php?reviewid=1062&pageid=1

zB.Fs 12 noviembre, 2010 - 23:46

phail

2 vs 1?

pff

JVortex 12 noviembre, 2010 - 16:46

Debería existir un sistema donde una tarjeta de video de generación anterior tenga cierto precio, entonces te podí comprar una nueva tarjeta pero a un precio reducido por permutarla con la vga vieja.

no sé si entendieron. :p
Nos ahorraríamos cualquier plata, y los fabricantes reciclan nuestras vgas viejas 😀

cass 12 noviembre, 2010 - 13:40

y yo por la concha peluda de tu reguetonera madre

Juan 12 noviembre, 2010 - 12:12

Che yo le tengo fe a esa cayman xt , para mi si le va a hacer frente a la 580.

felipe 12 noviembre, 2010 - 10:11

Menos mal que tengo novia.

sergio Z 12 noviembre, 2010 - 09:58

si AMD hiciera los mismos trucos q hace nvidia en sus driver de restar calidad grafica por un buen rendimiento, AMD le volaria a nvidia en single nucleo y lo que importa es el consumo energetico y el precio si AMd ofrece una dual al precio de una que pena for los fan boys de nvidia , se estan perdiendo algo buenisimo.

=Vulcano= 12 noviembre, 2010 - 08:46

Bien por AMD que sige evolucionando y arriesgandose en esto de doble gpu y a un precio bastante aceptable, mal por Nvidia que hasta ahora no se arriesga en NADA y sige sacando una mini evolucion de targetas anteriores, de seguro que si saca una doble gpu te saca un ojo del rostro literalmente y al primer mes lo descontinuan por haber sido un frankenstein…

a Nvidia le deberia preocupar menos el vecino del lado y preocuparse de lo que estan creando, se echa demenos los tiempos de grandeza de las 7600gt que fueron modelos muy muy buenos y baratos.

Eze! 12 noviembre, 2010 - 03:35

caieie!!!! maurinio fanboy ati! jajaja yo quiero ver que anda mejor el gta iv, en una 5970 o 580 gtx (y no es un juego malo) y si vamos al caso, con el vsync activado, es al pedo mas de una 5850 en el 95% de los juegos. Aguante la 5970 de maurinio!!!! Sabes que si nvidia saca una 580gtx x2!! consume tanto! imaginate el calor! na no hay forma! jaja seguro quisieron hacerlo y me imagino lo que habra salido!

ExtreemD4t4 12 noviembre, 2010 - 01:57

solo valdria la pena si eske la 6990 vale lo mismo o un poco (POCO) mas ke la 580 gtx xd, ahora si AMD pone a la 6990 al mismo precio ke la 580gtx, mata de 1 a nvidia xd

Biomehaniko 12 noviembre, 2010 - 00:20

supuestamente la 6970 iba a rendir similar a la 5970… o no???

Dekar 11 noviembre, 2010 - 23:09

2 gtx580 en sli son aprox 700 watts a full, sinceramente es demasiado

Keru~ 11 noviembre, 2010 - 23:29

Eres un llorón la luz en Chile no es cara… mi viejo trabaja en CGE así que lo se… <.< Chilestra es cara la weba hay que reconocer…

Una lavadora normal consume 800 Watt… y cuando lavas ropa pesada se come facil 2 a 3 horas sólitas imagínate si lavas la ropa dia por medio…pfff y solo la lavadora sumarle el micro para las palomitas ahí te chupaste 1800 watt y te quejas por fermi? en dual qpu consume 700 ademas por lo que calcule solo consume 448, exageras <.<

Algunos se quejan de la luz y ni siquiera saben calcular el consumo de ella…

Setiliten 11 noviembre, 2010 - 23:49

Seguro que vos robas cables y te enganchas ilegalmente para tener luz por eso zapateas como negro maricon

D4n13l0n 12 noviembre, 2010 - 01:55

Uhmmmm… q bueno amigo q tu viejo trabaje en una central electrica o como sea eso, pero aqui uno no habla del consumo sino de la contaminacion q genera ese consumo, nos estamos muriendo d a pocos y a ti eso no t importa… como dicen los viejos… a los mocosos, no les duele lo q uno gana con mucho esfuerzo… imaginate q todo lo q tenemos en nuestro planeta y q le tomo millones d años se va al carajo porq a la gente le llega al huevo cuidarlo… Por eso es q nvidia no tiene exito en sus productos creo, a pesar d sr muy rapidos… porq consumen harto y son caros, en ese caso mil veces prefiero gastar mi dineral y comprarme una laptop, consume poco y juego tb d la ptm…

=O! 23 diciembre, 2010 - 09:07

aaaaa por que no te vas a la pagina de greenpeace en vcez de estar haciendo comentarios ecologistas aca?

ExtreemD4t4 12 noviembre, 2010 - 02:00

en mi region pagamos la luz mas cara de chile, y mas ensima nos van a meter a hydroaysen para ke les de luz a ustedes y nosotros seguiremos pagando 3 veces la luz ke ustedes consumen ^^

Dekar 11 noviembre, 2010 - 23:06

Concuerdo contigo, el precio manda, que me importa si tiene 2 o 3 nucleos, lo importante son las 3B, si tanto lecean que es de 2 nucleos que saquen una gtx 590 que consuma el doble de la 5970,sin duda le ganaria, pero dudo que sea eficiente y costaria un riñon, hoy en dia si tuviera las lucas y viviera en el extrangero, sin duda me compro la 5970 que encuentro que esta barata para lo que es, y todos los juegos venideros sin duda le sacan provecho al multi gpu

N34R 11 noviembre, 2010 - 22:52

La verdad hay que ver el precio, aunque yo pienso que la 6870 y 6990 van a ser mas exitosas que la GTX580. NVIDIA se va al chancho con los precios,temperaturas y electricidad. Por eso la mayoría de la gente hoy en día prefiere AMD.

Creep 11 noviembre, 2010 - 21:25

lo peor que puedes hacer es comprar una dual-gpu, hay juegos que no tienen soporte dual gpu y te quedas jugando con la mitad del rendimiento, consumen mucho y se calientan mas que la ctm :S

Maurinio 11 noviembre, 2010 - 22:25

Amigo Creep, respondeme solo esta preguntitas si serias tan amable… ¿Consume menos la GTX480 que la 5970?
¿Es mas caliente la 5970 que la GTX480?
Aunque obviamente, hay (malos) juegos que no soportan multiples GPUs… ¿te pensas que con un solo nucleo de la 5970 no lo jugas al 100%?
Y termino diciendo… q solamente la GTX580 o 480, puede ganarle a la 5970 en aquillos juegos en que no soporte multiples GPUs, pero que carajo importa si lo podes jugar a 60 FPS con el Vsync como DIOS manda!

Sickness 12 noviembre, 2010 - 05:14

Y que juego bueno no aprovecha las bondades del multigpu hoy por hoy?? es como seguir pensando que un mononucleo es mejor que un doblenucleo…

Jero 14 noviembre, 2010 - 13:29

Es verdad todo lo que dicen, hablando de VGA, si una dual es mas barata que una mono, te conviene la dual, pero ya cuando entran con los comentarios ,que si consume mas, que si calienta mas, eso es de fan boy (ojo no te estoy diciendo fan boy a vos), para que inventarion EPU???, Power play???, power manager???, muchachos, todos los que tenemos las placas high end, ya sea mono, dual, tenemcos buenas mother buenos proce, y por enden uan fuente de 750 watt en adelante… suena estupido quejarse por unos watt mas cuando la computadora entera cuando jugamos o cuando la exijamos con algo esta chupando corriente como un calefactor electrico (kiteralmente hablando).
La temperatura???, yo tengo una 480 le compre un zalman y le mande OC , y cuanto calienta????, puff, tengo el gabo CM 690 Nvidia Edition porque me encanta la cantidad de cooler que tiene y el del costado les da a las VGA DIRECTAMENTE, no tiene idea como baja la temperatura ese cooler… le puse un Sentey Xfan.. con un fluo de aire de 69… es como si la vga comun tubiera otro cooler mas…, exelente.
Otra cosa es el ruidoo… weeee XD, yo nose como se quejan de eso a mi me gusta jugar a un volumen considerado… tambein uso audiculares…. yo no escucho una mierda… cuanodo no la uso o dejo descargando le bajo la velocidad del fan a todo el gabinete y listo.
ES POR ESTO QUE ME PARECE QUE LOS COMENTARIO DE CONSUMO, RUIDO, TEMPERATURA, ME PARECEN MERAMENTE COMENTARIOS FANBOY PARA DECIR QUE UNA ES MEJOR QUE LA OTRA. Saludos!!

Archowl 11 noviembre, 2010 - 20:29

voi a tener que ir a revisar mi saco de plata para ver si me alcansa para una bestia de estas

Tyranth 11 noviembre, 2010 - 20:12

Cada vez mas a distancia del presupuesto de uno ¬¬ … wn !! salieron las HD 6000 y mi HD5750 Bajo 8 lucas todas cagas wn 8 LUCAS !! … q xuxa D: ??? de aonde quedaran al alcance para poder los que no tenemos presupuesto ni pa un pendrive de 4 gigas q tan como a 5 o 7 lucas D: acercarnos a targetas relativamente buenas xD

Neocrack* 11 noviembre, 2010 - 20:04

ESTOS wns nunca paran de sacar weas e tarjeta sakan una wea
mensual la cago….

maller 11 noviembre, 2010 - 19:28

obvio !!!!!!!!!!!

elquesevieneentuculo 11 noviembre, 2010 - 19:17

VEREMOS DIJO UN CIEGO!!!!!!!!!!!XD

melkor 11 noviembre, 2010 - 18:40

que noticia tan divertida

vulturize 11 noviembre, 2010 - 18:03

Rrrr que pasa!! porq no puedo postear???

vulturize 12 noviembre, 2010 - 12:12

esta pagina quería postear y no es para q me pongan tantos votos negativos

https://www.kitguru.net/components/graphic-cards/faith/amd-radeon-hd-6890-benchmark-performance-predicted/

metalhead 12 noviembre, 2010 - 12:46

aca son asi de pelotudos algunos no te preocupes, lo de thumb down y thumb up me lo paso por los huevos

mantis 11 noviembre, 2010 - 17:56

Recordar que nVidia tiene previsto una gráfica con más de 700 núcleos CUDA para el año que viene, en vez de sacar una con 2 procesadores o chips Fermi GF.

elquesevieneentuculo 11 noviembre, 2010 - 19:20

CUDA CORES = SHADERS CUDA CORES (NAME) = NVIDIA MARKETING BULLSHIT

elquesevieneentuculo 11 noviembre, 2010 - 19:22

no supe bien como usar los códigos html 🙁

hurricane_mk2 12 noviembre, 2010 - 11:37

y dime algo se lanzara antes que llegue las hd7xxx? o para variar es tramite de nvidia

mpxstyle 11 noviembre, 2010 - 17:51

no hay que tener dos dedos de frente para saber eso, dos chip de ultima generacion contra uno solo, no hay comparacion.
igual me gustaria mas tener una gtx 580, sigue siendo la mejor de un solo nucleo ajjaja
yo creo que la nvidia no ha sacado una tarjeta de doble chip ultimamente porque consumieria la corriente de la casa entera ajajaj

KiusteR 11 noviembre, 2010 - 17:49

Si esta a buen precio en comparación con la 580, me interesa… No importa si tiene 2 nucleos!

D4n13l0n 11 noviembre, 2010 - 17:49

Jajajajaja, no estoy d lado d nvidia pero defintivamente una dual gpu debe ganarle a una single, ni q decir con esa noticia, q injusta es la vida.. jajajaja… Lo unico malo d las nvidia d ahora es el consumo… porq sino?? juzguen ustedes…

AMDON 11 noviembre, 2010 - 17:46

pfffff!!!, bad news..

Amet 11 noviembre, 2010 - 17:45

sin duda sera mejor la AMD

Ratork 11 noviembre, 2010 - 17:43

Niun brillo 2 GPUs vs 1. Vamos a ver que tal lo hace la 6970.

ChundomanX 11 noviembre, 2010 - 17:50

creo que la cantidad de gpu no importa, importa el precio, el consumo, el calor que genere, el tamaño y la compatibilidad con las últimas tecnologías

hurricane_mk2 11 noviembre, 2010 - 19:03

-exacto es así de lógico, si no comparemos también las mismas cantidades de transistores y tamaños del die.

– es mas no se si sea tan asi que la hd6970 rinda muy por debajo de la gtx580 si ya logra hasta un 10% de performance extra sobre la gt480 sin ningun tipo de driver pulido yo creo que podria rendir batante codo a codo con la gtx580

CEREC 11 noviembre, 2010 - 22:16

BIEN!!!! al fin encuentro personas censatas!!! Esos son consumidores inteligentes! Solo pensar que hoy la 580, no puede pasar a la 5970 (que cuesta menos, consume menos y es mas fresca), imaginen lo que sera la 6990! Puro AMORRRR y eficiencia!!!

hurricane_mk2 12 noviembre, 2010 - 11:32

exacto, es asi, y por lo general si te fijas por ejemplo la hd5870 rinde parejito con la hd4870x2, la hd4870 lo mismo y mas que la hd3870x2y asi… y ahora con drivers pulidos deberia ser mas, entonces porque AMD romperia esa linea, muchas webs dicen que la hd6970 supera a la gtx580 lo cual podria ser logico pensando en su arquitectura mejorara y cambio de shaders de 5d a 4d lo cual hace que sea mas facil sacarle provecho

Martín 11 noviembre, 2010 - 23:42

Lo que pasa es que a los fanboys de nVidia les duele no tener la mejor VGA del mercado.
Entonces te dicen: tenemos la mejor VGA monoGPU del mercado. Les cuesta asumir que AMD tiene lo mejor del mercado.

striker_gt 12 noviembre, 2010 - 16:27

De acuerdo +1

Hay que ser muy gil para defender a una marca decadente….

Nvidia goes to bankrupcy as GM. They need a bailout baby!

https://img607.imageshack.us/img607/552/nvidialifesaver.jpg

Aof Dark 12 noviembre, 2010 - 02:51

Si fuera así, comparando sólo eso, completamente de acuerdo, solo importaría cuál es la mejor.
Sin embargo, hay un par de problemas:

-Las arquitecturas de 2 GPU’s, no escalan igual para todos los juegos. De hecho, hay muchos juegos en los que las tarjetas doble GPU funcionan como si tuvieran solo un GPU.
-Micro stuttering. Este és el defécto de calidad principal de las tarjetas doble GPU y una de las razones por las cuáles nunca me he interesado en ellas. Prefiero mil veces una tarjeta single GPU que da menos fps por segundo promedio pero que son linealmente parejos, a una tarjeta doble GPU que tiene pausas irregulares entre cuadros.

Y otra cosa que no tiene que ver con doble/single GPU, pero tiene que ver con Nvidia/ATI: Drivers. La última vez que vi los drivers ATI, los encontré mucho menos pulidos, y poco profesionales, típico con la mona cibernética y esas tonteras. Nvidia saca drivers mucho más pulidos y bastante seguido y es una de las razones por las cuales los prefiero.

Así que no es tan fácil como llegar y comparar. Personalmente la 480GTX no me gustó por su excesivo consumo y ruido, pero la 580GTX si solucionó estos problemas y por los reviews se ve una tarjeta bastante sólida. Además que en tesselation parece andar más rápido que la contraparte de ATI.

hurricane_mk2 12 noviembre, 2010 - 11:34

ojo eso ya esta quedando en el pasado, con el paso del tiempo veremos que los juegos nuevos sacaran mas provecho a estas vgas dual gpu, por una wea de mercado no les combiene tener usuarios descontentos

Neferzix 15 noviembre, 2010 - 12:38

quieres decirme cuales son los juegos en donde la 5970 es mas lenta que una 480, a quien le importa si tiene 1 o 2 gpus lo que importa es el rendimiento, puro y duro lo mismo decían de los procesadores dualcore años atrás y mira por donde vamos, nadie niega que Nvidia tenga el mejor rendimiento mono Gpu, pero la corona de rendimiento es de Ati sin importar que tipo de solución usen para llegar a ello.

gatitomimosin 15 noviembre, 2010 - 16:14

POR DIOS!!! cuanta ignorancia!!!!
hoy casi todas las tarjetas te dan mas de 30 fps, la cosa no es rendimiento hoy sino quien te da la mejor experiencia de juego, de que te sirve por ejemplo jugar mafia 2 a 120 fps por segundo si el juego se ve HORRIBLE CON ATI, en cambio si juegas con NVIDIA el juego se ve hermoso, lo mismo pasa con muchos juegos como just cause 2 , batman y etc.. mejor informate antes de hablar idioteces

GATITOMIMOSIN 12 noviembre, 2010 - 03:26

como que no importa 2 o 1 gpu tontolin? se nota que no sabes ni j de computacion, estas tarjetas amd radeon son un fiasco total, 2 gpu para competir contra 1 gpu y no aplican hasta ahora (a pesar que jalaron a uno de los creadores de phsyx) ninguna fisica por gpu, ninguna noticia de juegos 3d para amd y etc; cuando salen nuevos modelos GEFORCE solo se me vienen a la mente nuevos records mundiales del 3dmark vantage cosa que no me pasa cuando salen nuevos modelos amd radeon

Martín 12 noviembre, 2010 - 12:39

Talvez eso sea porque nVidia tiene bastante tiempo para pensar como hacer sus VGAs. Te recuerdo que nVidia está sacando VGAs que compitan con la última serie de nVIdia 1 año después de que AMD las sacó.
Segundo, yo nunca en mi vida vi una publicidad de AMD/ATI en la calle, en la TV, etc.
De nVidia si, vi varias. Talvez sea porque tienen que ganar consumidores con la publicidad.
Tercero, vos decis que todavía no hicieron nada con respeto a las físicas. Y nVidia con el Eyefinity?
Si bien salio la GTX460 para Eyefinity, está bastante limitada en la cantidad de resolución, etc. Sin contar que no se la debe bancar porque, si mal no recuerdo, tiene 768MB de VRAM.
En cambio, AMD ya saco una VGA, y hace rato, que soporta hasta 6 monitores [la HD 5870 Eyefinity] y como soporta Quad-Crossfire podes conectar hasta 24 monitores.

Chief 14 noviembre, 2010 - 20:17

Me parece una broma esto..que amd nunca ha hecho un anuncio?
https://www.youtube.com/watch?v=2QkyfGJgcwQ
Los de amd enves de hacer este tipo de anuncios tontos deberian concentrarse mas en hacer GPU’s que valgan la pena..

Fermi es su derrota y lo saben, si una dual gpu es todo lo que pueden ofrecer para competir en la gama alta…

precio/rendimiento? GTX460 toda la vida..no conosco ni una ati que se acerque a tal relacion

Add Comment