NVIDIA: GPUs 57.000% mas rapidas en los próximos 5 años

Durante una conferencia realizada en la universidad de Stanford, Jen-Hsung Huang indicó que dentro de 5 años más veremos GPUs 570 veces más poderosas, eso es un 57.000% de  aumento en el poder de cómputo.

Tal parece que ha estado fumando lo mismo que el jefe científico de NVIDIA, quien anunció GPUs con 5000 SP para el 2015 debido a las frases extremadamente optimistas. Huang tampoco desperdició la oportunidad para hablar pestes de la competencia e indicar que las CPUs se están quedando atrás incrementando su poder de cómputo tan sólo tres veces durante el periodo que el indica.

¿Creen que NVIDIA tiene un as bajo la manga o derechamente están hablando boludeces porque no tienen un CPU para competir contra AMD e Intel?

[bit-tech]

Related posts

NVIDIA RTX Remix se actualiza a DLSS 3.5 con reconstrucción de rayos

Los desafíos de la computación cuántica y su impacto en Chile

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

19 Comment

IvanDanko 3 septiembre, 2009 - 15:45

A todos nosotros nos beneficiaria mas que se lograse una fusion entre AMD+ATI+VIA+NVIDIA o AMD+ATI+IBM+NVIDIA para asi de una vez x todas nazaca una compañia que pueda encarar completamente a «Intel» en todos los terrenos y deje ser un prepotente Monopolio que nos da lo que se les da la reglada gana asi sean productos mediocres como lo fueron los PentiumIV, Prescott, HT, EE, Celeron a precios de huevos de ORO.
Incluidas sus practicas sucias para mantenerse con ese cuota de mercado tan monstruosa artificialmente sobornando, presionando a los distibuidores y fabricantes para que solo anden vendiendo sus productos para que nos salgan a un OJO de la cara, sin importarles para nada los usuarios finales unicamente ellos.

Afortundamenete se esta luchando contra estas practicas capitalistas salvajes que van en contra del libre mercado o competencia (Leyes AntiMonopolio/Laws AntiTrust, vease mas info en: breakfree.amd.com

Barathrum 3 septiembre, 2009 - 14:20

de q sirve tener la mea gpu si no hay juegos en q usarlos???

davitata 29 agosto, 2009 - 20:13

exprimir el hadware de ahora. que no se usa ni el 50% ?

men las compañias no solo hacen cpu o gpu para gamers
tambien esta la parte de compañias , cosas medicas y tal

asi q. si se nesesita todo lo mas potenteee y cuanto mas puedan ps mejor

Alex 28 agosto, 2009 - 06:13

Se entiende que el titular debería ser:
«NVIDIA: Las GPU serán 57 veces más rápidas en los próximos 5 años»
o bien:
«NVIDIA: Las GPU serán un 570% más rápidas en los próximos 5 años»

Respecto a la noticia, parece que los próximos años la tecnología caminará sobre dos pilares: incrementar el número de cores y cuando se pase a 32nm, 28nm, etc., incrementar la frecuencia de reloj

El hecho de disponer de muchos cores en las tarjetas gráficas
permite fácilmente tener un rendimiento máximo cinco veces superior
de aquí a 5 años.

El problema para los fabricantes como NVIDIA y ATI
es disponer de aplicaciones (que no sean juegos) que puedan
aprovechar lo que traerá las nuevas tarjetas.

Mi opinión muy subjetiva es que cada vez se juega menos
en PC y más en consolas, por lo que para justificar el
coste de una tarjeta gráfica, ha de haber aplicaciones
con interfaces gráficos ‘novedoso’ 🙂

Desde luego que los móviles y reproductores de MP3
con Tegra (NVIDIA) será un mercado jugoso,
como los netbook con ION (NVIDIA).
El PC parece estancado si no cambian las cosas…

¿Qué opináis?

Alex 28 agosto, 2009 - 06:17

¡Oops!

Me falta una coma:
«NVIDIA: Las GPU serán 5,7 veces más rápidas en los próximos 5 años»

😉

kushito 28 agosto, 2009 - 01:01

Los comentarios de estos tipos me recuerdan las películas de los 80’s; como olvidar los autos voladores y carreteras aéreas para el año 2000?? XD

Bio_abandon 27 agosto, 2009 - 23:51

la pregunta es si nvidia vivira tanto como para poder ver eso a la luz???

Marco Antonio Choque U. 28 agosto, 2009 - 07:07

JAJAJAJAJAJA
😀

Marco Antonio Choque U. 27 agosto, 2009 - 22:57

no olvidemos que tambien…

57.000% veces mas caro que lo que existe @_@
y…
57.000% mas calenton @_@
y… [alguien lo continua XD]

kushito 28 agosto, 2009 - 01:04

…y con espectativas 57.000% mas exageradas para el 2019

Pho6oZ 27 agosto, 2009 - 22:56

habra ke ver como va esto, pero tambien hay ke ver ke onda con lo ke es tecnologia y eficiencia

Abraxas 27 agosto, 2009 - 17:01

ojala se cumplan estas proyecciones, recuerden que con gpgpu se podran acer grandes descubrimientos con estos avances y poder de calculo que asta ahora parecen un sueño,

PD: asi podremos correr el buscaminas a too shansho xD

AndresCL 27 agosto, 2009 - 16:11

Y juegos %57.000 peor optimizados, para compensar

ariel 27 agosto, 2009 - 16:59

ja ja lo mismo digo..

Martinoliii 27 agosto, 2009 - 16:04

hahaha pues ati no kreo ke se kede atras

straus99 27 agosto, 2009 - 16:01

JAJAJAJAJA A lo mejor tiene una nave extraterrestre y están investigando el procesador del play station 5000 de los marcianos

JackassBQ 27 agosto, 2009 - 15:28

Claro y tratándose de Nvidia supongo que el precio aumentará en igual mediada :sconf

fdelapuente 27 agosto, 2009 - 14:46

Todo depende de lo que llamas «usar». Hoy en día existen una serie de aplicaciones en las que tienes que hacer maravillas de trucos místicos para que tu software te de una cantidad aceptable de Frames por segundo. Sobre todo en el área de Diseño Mecánico, y visualización de Modelos de alta complejidad y volúmen. Junto con eso, con ese poder de cómputo se podría utilizar técnicas de dibujo mucho más realistas que las que estás acostumbrado a ver en los típicos juegos o sistemas de simulación de tiempo real. Cosas que hoy en día se pueden hacer de manera limitada y en hardware especialmente optimizado para eso.

Saludos, Felipe.

gustavo (el original y quejoso) 27 agosto, 2009 - 14:11

más allá de si pueden o no lograrlo, hablan boludeces

para que queres TAAANTA velocidad de procesamiento??
porque en vez de armar hardware tan futurista, no se dedican a exprimir el que ya hay disponible, el cual no usan ni el 50% de su potencial… la única forma de hacerlas pasar calor es ponerlo en resoluciones de pantalla irrisorias

Add Comment