La GeForce GTX Titan llega este lunes 18 y se revelan más especificaciones

Bueno ya les hemos hablado de sobra todo lo que se sabe de la inminente GeForce GTX Titan y según reportes de algunos sitios esta nueva bestia gráfica de NVIDIA se lanzará oficialmente el próximo lunes 18 de febrero.

Así lo han afirmado sitios como donamihaber y xtremsystems.org, eso sí, el lanzamiento sería en unidades limitadas y solo para efectos de reviews (paper lauch), ya que la disponibilidad en el mercado de la tarjeta será según dicen entre el 24-26 de este mes. De todos modos este lunes 18 los selectos sitios que recibieron sus muestras publicarán sus reviews de rendimiento, donde a todas luces la GeForce GTX Titan pretende barrer o al menos superar por buen margen a las actuales tarjetas de video más poderosas del mercado.

Según reporta donaminhaber la GeForce GTX Titan tendría una tasa de relleno de texturas (texture fill rate) de 288 GT/s, comparado con los 134 GT/s de la actual GeForce GTX 690, la tarjeta viene también con un poder de computo punta (peak) de 4.5 TeraFlops en cálculos de simple precisión, con 2688 CUDA Cores (14 SMX), 224 TMU (Texture Mapping Units) y 48 ROPs (Raster Operations Units).

Para la parte de memorias esta tarjeta vendrá con 6 GB GDDR5 a 6008 MHz bajo una interfaz de 384-bit (no 512-bit como se había mencionado previamente), con un ancho de banda de 288 GB/s y una GPU a 875 MHz, con boost sobre 1 GHz. (datos por confirmar).

Otros datos adicionales indican que la GTX Titan tendrá una potencia térmica de entre 235-250W, alimentada por 1 conector PCI Express de 8-pines y otro conector de 6-pines, además desde luego de la energía que entrega el propio puerto PCI Express.

Estén atentos que apenas se publiquen los reviews tendrán las especificaciones oficiales completas y los enlaces para leer y ver el rendimiento de la prometedora NVIDIA GeForce GTX Titan.

[softpedia] [wccftech]

Related posts

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

Samsung lanzó oficialmente la serie Galaxy Book4 en Chile

ASUS presenta la Nueva Zenbook Duo: Experiencia de Doble Pantalla que Transforma la Productividad y la Creatividad

34 Comment

Sergio 15 febrero, 2013 - 17:46

Apuesto a que una AMD 8970 se partirá en 2 a este pobre intento de GPU, además que Nvidia desde su serie GTX88xx perdió el norte. AMD en cambio desde la serie HD 4000 que viene destrozando a toda GTX que se le presenta.

amdon 18 febrero, 2013 - 10:41

En que mundo vives???

spike 15 febrero, 2013 - 11:10

@asd:no porque seas fanboy,todos los tenemos que ser.yo tengo intel y nvidia,y no por eso,las voy a defender.
@daniela:la antorcha? Sinounos animales estan peleando!!! Jejejejeje!!.no habra cuello de botella tanto en intel gama media-alta para arriba,como en fx gama alta,para manipular uno completamente.en caso de 2 vgas,el rendimiento ejemplo (gtx 690) necesitarias un i7 3770k para arriba y muchas veces tendria que ser oceado el cpu para sacarle todo el jugo a dichas vgas,se sabe de antemano que amd en arreglos sli o crossfire,sufre mucho del bottleneck,creo que asi se escribe,por eso si haces o tienes pensado hacer sli o cross,es mejor que te compres un intel
Saludos a ambos!!!

daniela 15 febrero, 2013 - 20:39

Disculpa n.n Quería agregar algo mas a la discucion XD

el loco 14 febrero, 2013 - 02:31

con dos de esas ya estoy hecho SLI GTX TITAN VAMOS TODAVIA

Ar. 13 febrero, 2013 - 16:17

Linda placa, la verdad que sorprendió NVIDIA con esta noticia, nunca me lo hubiera imaginado, tan rápido y tan increiblemente potente con respecto a la reciente generación anterior.

Quiero fotos! van tirando noticias a cuenta gota, la ansiedad me va a matar :p

asd 13 febrero, 2013 - 16:23

lo q me deja O.o es el TDP, pensé q tendría almenos 310W..

daniela 13 febrero, 2013 - 16:14

pronostico cuello de botella por todas parte.

(con cualquier CPU) X.x

asd 13 febrero, 2013 - 23:44

con un i5k se exprime esta tarjeta pero si fuese al revés y metieran mucho proce y poco grafico ahí si se haría un cuello de botella.

daniela 14 febrero, 2013 - 01:05

ara cuello no tanto pero le va a hacer por lo menos a 1920×1080 claro eso es, si los rumores son cierto .

asd 14 febrero, 2013 - 10:08

estas totalmente equivocada amiga.. ^^!

si lo q dices es cierto entncs si le ponemos una gama media alta a un proce FX q tienen rendimiento mediocre, según tu se haría un cuello de botella xq no aprovecharía la tarjeta al máximo.

Pero no es asi, como dije antes, si fuese al revez la cosa si tendrías perdida de rendimiento.

PD: mátenme a negativos fanboys de AMD pero fue solo un ejemplo..

spike 14 febrero, 2013 - 15:29

@asd,por que dices que fx 8350 es mediocre,nada mas porque en jueguitos ande a 30-20 fps menos que en intel?,el fx-8350 va mas rapido que el i5 3570k,yo ya los probe y el intel quedo en verguenza,todo es marketing amigo,intel esta muy inflado,hasta para prender el ordenador enciende mas rapido un phenom ii x4 965 que un i5 2500k yo los tengo a ambos,la pc no nada mas son juegos y solo los fanaticos son los que se pelean por una marca,amd en juegos si rinde un poco menos,pero eso no es perceptible a los ojos y jugando arriba de 40 fps,que mas da si jugamos a 300 o 60 fps si son continuos,ademas amd ya no da tantos bajones como antes si,en lo que si te doy la razon es cuando uno compra la pc teniendo en mente que va hacer un sli o cross no le exprimes todo el potencial a tus tarjetas de video,pero eso solo pasa si nada mas quieres jugar con la pc,y presumir que tienes 2 tarjetas de video,eso ya es de fanaticos,espero que me comprendas,saludos!!!

spike 14 febrero, 2013 - 15:33

te lo demuestro aki esta:

-https://www.guru3d.com/articles_pages/core_i5_3570k_review,1.html

Este es un review,de hace una semana,y de un procesador i5 3570k sacado del monton,no delos que envio intel alas paginas para que hicieran su review,en lo unico que destaca este proce vs amd es en juegos,saludos!!.(ojo este es review de ahora no de hace 5 o 7 meses)

asd 14 febrero, 2013 - 17:10

@spike:

Cito la posdata de mi ultimo comentario:

«PD: mátenme a negativos fanboys de AMD pero fue solo un ejemplo..»

eres tan fanboy q casi lloras por mi respuesta a Daniela pero no eres capaz de terminarlo, ya q solo buscas la palabra AMD..

NewPD: solo leí la primera línea de tu párrafo y de verdd no me intereza el resto, asi como no te interezo el mio.. ^^!

daniela 15 febrero, 2013 - 03:24

*Saca una antorcha* Atrás!!! ATRAS !!! Dejen la pelea >_> ok no .-.

Asd tal vez tenga razón y no abra cuello de botella n.n, sin embargo la explicación con el FX fue algo rara @_@

asd 15 febrero, 2013 - 12:03

Abras notado q siempre le tiro mierda a AMD y esto lo hago para molestar a los fanboys. Igual pasa en CHW, son muy fanboys, hasta el único autor e esa web.

Tu dices algo alla q se yo, q via esta haciendo bien el trabajo y pff te muelen a negativos y dicen: «no tanto como AMD».

Hago llorar a los AMD Lovers 🙂

daniela 15 febrero, 2013 - 12:49

Bueno … desde siempre e tenido AMD y me gusta.. Pero solo lo defiendo hasta donde sea defendible n.n

Adrian Pla 13 febrero, 2013 - 16:02

Y que juego precisa semejante mounstro? Alguno que va a salir? Todavia no salieron las nuevas consolas, y cuando salgan juegos que exigan potencia de gpu, ya van a estar en el mercado las proximas lineas con mejor potencia/consumo…

xstyle 13 febrero, 2013 - 16:12

para que los juegos te corran a 300 FPS :yaoming:

MaknusDave 13 febrero, 2013 - 18:46

pues que habran tarjetas mas poderosas al mismo precio
ejemplo la gtx750ti

daniela 13 febrero, 2013 - 19:12

eso que dices es: jugar a ser profeta, mejor que terminemos de ver como marcha todo.

Nvidia podría usar este núcleo solo para la gama alta y ultra y dejar los actuales para las baja/media/¿alta?. asi que hay que esperar un poco para ver como avanza esto.

asd 13 febrero, 2013 - 15:59

Con ese rendimiento y ese TDP ajustado.. quiero 3

asd 13 febrero, 2013 - 16:02

q sean 4

asd 13 febrero, 2013 - 16:03

q sean 5

asd 13 febrero, 2013 - 16:03

q sean 6

asd 13 febrero, 2013 - 16:03

q sean 7

asd 13 febrero, 2013 - 16:04

q sean 8

asd 13 febrero, 2013 - 16:04

quiero todo el stock

asd 13 febrero, 2013 - 16:05

mejor dicho, quiero toda la línea de prouccion. No le dejare a nadie.

asd 13 febrero, 2013 - 16:06

No se nota el sarcasmo? entncs vuelve al colegio…

asd 13 febrero, 2013 - 16:20

░░░░░░▄▄▄▀▀▀▀▀▀▀▀▄▄▄▄▄
░░░░░█░░░░░░░░░░░░░░░░▀▀▄▄
░░░░█░░░░░░░░░░░░░░░░░░░░░█
░░░█░░░░░░▄██▀▄▄░░░░░▄▄▄░░░█
░▄▀░▄▄▄░░█▀▀▀▀▄▄█░░░██▄▄█░░░█
█░░█░▄░▀▄▄▄▀░░░░░░░░█░░░░░░░░█
█░░█░█▀▄▄░░░░░█▀░░░░▀▄░░▄▀▀▀▄░█
░█░▀▄░█▄░█▀▄▄░▀░▀▀░▄▄▀░░░░█░░█
░░█░░░▀▄▀█▄▄░█▀▀▀▄▄▄▄▀▀█▀██░█
░░█░░░░██░░▀█▄▄▄█▄▄█▄████░░█ PROBLEM?
░░░█░░░░▀▀▄░█░░░█░█▀██████░░█
░░░░▀▄░░░░░▀▀▄▄▄█▄█▄█▄█▄▀░░░░█
░░░░░░▀▄▄░░░░░░░░░░░░░░░░░░░░░█
░░░░░░░░░▀▀▀▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▄▀

Harryccó 13 febrero, 2013 - 16:57

se quemo la tarjeta, se quemaron todas las tarjetas al igual cuando salio la 690 y sus primeras pifias 🙂

asd 13 febrero, 2013 - 23:45

Harry sigue viendo Naruto, anda..

joker 14 febrero, 2013 - 03:56

madura hijo, madura

Add Comment