IBM iDataPlex: El nuevo HPC de la U de Chile.

El día de ayer, en dependencias del CMM (Centro de Modelamiento Matemático) de la Universidad de Chile, se realizó la presentación en sociedad de la reciente adquisición de esa casa de estudios, el iDataPlex de IBM, el 5º supercomputador más poderoso de la región, y un supercomputador que según palabras de los encargados, posee el potencial de 1700 PC. En su interior cuenta con 528 núcleos de cómputo y 80 núcleos de apoyo, para hacer un total de 600. Estos núcleos pertenecen a procesadores Intel Xeon 5550 (Nehalem), con un total de 1.5TB de Ram y mucho mucho espacio en disco duro xD.

Este equipo estará disponible para toda la comunidad científica nacional, y de acuerdo a palabras de Don Claudio Baeza, Ingeniero del Laboratorio de High Performance Computing y Grid del CMM.

Esperamos que este equipo apoye las actividades que se realizan en el país en ciencia de frontera y se cree una red de cooperación que utilice la computación de alto rendimiento para entregar una ventaja estratégica al sector industrial de Chile, con el propósito de hacerlo más competitivo

En lo referente al consumo y generación de calor, este equipo cuenta con una nueva y avanzada tecnología llamada IBM Rear Door Heat eXchanger, lo cual, reduciría el uso de aire acondicionado necesario para mantenerlo a una temperatura de trabajo lo suficientemente baja. Por otro lado, el iDataPlex consume un 40% menos que otros equipos de similares características.

El uso que tendrá este supercomputador está como por ejemplo, calcular inversiones y operaciones óptimas para redes complejas en problemas de energía y telecomunicaciones, simular las complejas condiciones medioambientales en proyectos mineros, estimar con mejor precisión los recursos hídricos disponibles en las cuencas del norte de Chile, como también la dispersión terrestre y aérea de residuos contaminantes. Sus capacidades también se pueden emplear para el estudio de desastres naturales y análisis de riesgo, así como para el análisis de imágenes en tiempo real provenientes de la medicina y astronomía.

[nggallery id=484]

Related posts

NVIDIA RTX Remix se actualiza a DLSS 3.5 con reconstrucción de rayos

Los desafíos de la computación cuántica y su impacto en Chile

Samsung presentó en Chile sus nuevos televisores con Inteligencia Artificial

20 Comment

Pentium 4 29 abril, 2010 - 22:22

la wea sexy

zB.Fs 29 abril, 2010 - 20:23

ohh mierda! 30 tflops xeon nehalem
no imagino cuanto habrá costado esa monstruosidad!!

Mario Rübke 29 abril, 2010 - 20:27

aproximadamente una inversión sobre los $600000 USD

gustavo 29 abril, 2010 - 17:23

uuuh
y el mame me anda bien ahi? 😛

fuera de joda, buena inversión, ojala le puedan dar un excelente uso

RSX 29 abril, 2010 - 16:36

lo q mas importa no usa microshit? por q una cosa es tener toda esa potencia y otra programar semejante plataforma xP

toni 29 abril, 2010 - 20:07

Obviamente no usa una plataforma M$ por que generalmente todas las que tiene son para usar en pc domesticas o medianos servidores mas de eso las demás plataformas son experimentales y no compite en el ámbito de los Clusters. En cuanto a las placas de video ya es complicado programar lo mas eficientemente en open-mp o mpi o algun lenguaje para sistemas distribuidos ni me imagino programar para aprovechar un gpu 🙁

pity 29 abril, 2010 - 21:05

Creo que RSX no se refiere a lo que comentas, pienso que se refiere al lenguaje de programación que se basen para ejecutar los cálculos, simulaciones, etc.., si es C pueden ser plataformas Unix, Linux, si programan en visual o delphi, pues creo que son para plataformas win2.

saludos !¡

RSX 29 abril, 2010 - 16:35

30-38Tflops OMG!!!
cuando comensaran a utilisar vgas en superpcs la 4870 tiene 1200Gflops en 32bit de precicion y 240 a doble de 64 la *2 5970 tienen 10Tflops 32bit y 2 64 aunque el valor mantenido equivalente a un cpu es diferente tienen un poder enorme los chinos tienen un super pc con 4000 o algo asi 4870 y les da +400Tflops mantenidos y un consumo muy bajo para la potencia

PD perfecto para el server que necesitaba para partidas masivas de farmville o algo asi JUAS!!!!

bside 29 abril, 2010 - 12:51

no entiendo como 528 + 80 = 600 ???

Roberto 29 abril, 2010 - 21:44

espero que este cálculo no se haya hecho en el HPC jajaja

kristos 29 abril, 2010 - 12:20

cuanto se demorará en encodear un blu-ray? :baba: xD

toni 29 abril, 2010 - 11:48

Jeje en la universidad de Cordoba facultad de ciencias exactas hay uno parecido se llama cristina. Y se pueden realizar trabajos sobre ella para tesis.

https://archivo.lavoz.com.ar/10/02/20/secciones/ciudadanos/nota.asp?Inicio=11&Pagina=11&nota_id=592278

Sebastian 29 abril, 2010 - 11:35

y correra el Crysis 2? xD

davidcianorris 29 abril, 2010 - 11:39

por ultima ves, que nooooooo maldita sea!!!!!!!!!!!! XD

Segu 29 abril, 2010 - 11:56

Hay que decirlo… siempre que salen nuevos mossssstros hay que decirlo…

Correra Metro 2033?

vicxman 29 abril, 2010 - 22:13

Al menos el mio si lo corre….pero esta bestia no está destinada para juegos, es para almacenamiento de enormes cantidades de datos…no como el mio…xD

harryccó 29 abril, 2010 - 11:57

no falta el noob con su comentario wn! -.-

transistor 29 abril, 2010 - 10:48

da si vieran el server de la facultad publica de rosario unr donde estan las ingenierias y todo eso

yo creo que es un lentium 2 con 100 gb de disco conectado a banda chancha de 1.5 mb jajaja

felicitaciones que aprobechen su server

ExtreemD4t4 29 abril, 2010 - 10:44

tambien dijeron ke lo iban a utilizar para analizar los datos del telescopio gigante europeo ke van a instalar :B

harryccó 29 abril, 2010 - 11:56

si eso si seria interesante, el telescopio mas grande del mundo con el pc mas rapido de la zona, seguro a Chile llegaran bastantes extranjeros expertos en la materia, por fin tenemos algo que es mundial y nº1, ben ctm!

Add Comment