Está en la página 1de 6

COMPUTADORAS DE ALTO RENDIMIENTO

Abraham Sebastián zapata Mojica, Jaime Alejandro López

 number of users interested in the use of


Resumen: computational techniques to solve scientific
Las computadoras de alto rendimiento (High problems, is growing significantly. Also, the
performance Computing o HPC en inglés), soy muy complexity and the high computational cost of these
importantes para el desarrollo y la simulación, estas problems have driven the development of advanced
se apoyan básica mente en tecnologías parallel and distributed for High Performance
computacionales tales como las supercomputadoras Computing environments. As a result, scientists and
y la computación en paralelo las cuales pueden engineers have managed to address large-scale
ejecutar deferentes procesos al mismo tiempo. situations that would be untreatable without the use
of these new technologies. In this article, the basic
El número de usuarios interesados en el uso de principles of parallel computing are presented and a
técnicas computacionales para resolver problemas study of modern paradigms that have been applied to
científicos, está creciendo notablemente. Asimismo, the High Performance Computing, in order to free
la complejidad y el elevado coste computacional de the programmer of most of the details in the
dichos problemas, han impulsado el desarrollo de operation is performed parallelism. They presented
entornos avanzados para la Computación paralela y also the most important and innovative technologies
distribuida de Alto Rendimiento. Gracias a ello, developed under the philosophy of these paradigms,
científicos e ingenieros han logrado abordar with special emphasis on the proposals based on
situaciones a gran escala que resultarían intratables software components.[1]
sin el uso de estas novedosas tecnologías. En el
presente artículo, se exponen los principios básicos I. INTRODUCCIÓN
de la computación paralela y se realiza un estudio de as computadoras de alto rendimiento son aquellas
los modernos paradigmas que han sido aplicados a la que pueden ejecutar programas en tiempos muy
Computación de Alto Rendimiento, con el fin de reducidos, estas pueden variar dependiendo al tipo de
liberar al programador de la mayoría de los detalles procesador que 1se utilice y su cantidad de memoria
en la explotación del paralelismo. Se presentan, RAM y el tamaño del disco duro.
además, las más relevantes y novedosas tecnologías
desarrolladas bajo la filosofía de estos paradigmas, Debido a los fuertes requisitos de computación y
haciendo especial énfasis en las propuestas basadas memoria, los problemas abordados en la
en componentes software. computación científica se consideran intratables sin
el uso de ordenadores paralelos. Dichos ordenadores
Abstract: se caracterizan por disponer de un
conjunto de procesadores, capaces de trabajar de
The high-performance computing (High forma colaborativa en la realización de una tarea
Performance Computing HPC in English), I am very computacional.
important for the development and simulation, these Muchos de los problemas que se intentan resolver en
basic mind rely on computer technologies such as el campo de los Sistemas Inteligentes, necesitan de
supercomputers and parallel computing which can una elevada potencia de cálculo, que sólo pueden ser
run deferential processes at the same weather. The abordados por medio de la implementación de

1
algoritmos paralelos, que permitan aprovechar II. METODOLOGIA
distintos tipos de arquitecturas hardware en las que
se dispone de más de un procesador. [2] La supercomputadoras son ordenadores o
computadoras de alto desempeño, es decir, son
La programación de aplicaciones científicas extremadamente potentes y capaces de realizar
paralelas ha estado tradicionalmente basada en tareas de cálculo a una velocidad sorprendente que
mecanismos de bajo nivel de abstracción, con el equivale a cientos de veces la velocidad de una
objetivo de lograr un control preciso del rendimiento. computadora de sobremesa o laptop estándar.
Aunque han podido desarrollarse
aplicaciones muy eficientes, el bajo nivel de
abstracción requiere conocimientos profundos de los
mecanismos de comunicación y sincronización.
Afortunadamente, después de muchos años en los
que la construcción de aplicaciones de altas
prestaciones, implicaba el conocimiento de un
lenguaje o biblioteca de funciones específicos,
actualmente existen estándares que permiten la
construcción de aplicaciones, ejecutables en distintos
entornos de multi computadores, aprovechando de
forma transparente las características diferenciales
de las distintas arquitecturas. Podemos decir entonces que las supercomputadoras
La creciente demanda de aplicaciones de alto son equipos informáticos que están compuestos por
rendimiento, no sólo a nivel científico, sino a nivel cientos de procesadores que trabajan en paralelo y en
industrial, comercial y técnico, unido a la arreglos combinados, para ofrecer una velocidad y
complejidad inherente al desarrollo de las mismas, capacidad de cálculo y de procesamiento de datos
han impulsado la construcción de entornos sorprendentes, de tal manera, que puedan ser
avanzados para la Computación paralela y utilizadas para fines específicos en donde muchas
distribuida de Alto Rendimiento (CAR). Novedosas computadoras trabajando simultáneamente no darían
prácticas de la ingeniería de software han sido los resultados esperados por los usuarios. La
utilizadas con el propósito de disminuir el coste velocidad de estos equipos son medidos en Teraflops
asociado al desarrollo de este tipo de que equivalen a billones de operaciones por segundo,
aplicaciones. lo que da una idea de la potencia y la velocidad de
estas colosales computadoras.

Al contrario de lo que se pueda pensar, las


supercomputadoras se encuentran integradas por los
mismos componentes de las computadoras
convencionales. Sólo que sus componentes internos,
se encuentran relacionados entre sí de tal manera,
que se puede obtener un rendimiento extraordinario
de cada uno de ellos.

[3] las primeras supercomputadoras fueron


construido cuando la tecnología de bulbos al vacío
empezó a ser reemplazada con transistores. En
Estados Unidos, una compañía llamada CDC dominó
el mercado de supercomputadoras la mayor parte de
la década de los 60. La CDC-6600 era 10 veces más
rápida que su competidor más cercano, y la empresa
vendió 100 unidades por 8 millones de dólares cada
una.

El genio detrás de estas computadoras era un hombre


llamado Seymour Cray. Cuando Cray renunció para
formar su propia compañía en 1972, el negocio de las
El procesamiento vectorial depende de la capacidad
supercomputadoras despegó. La Cray-1 fue la
para hacer pasar datos rápidamente a través de los
primera máquina en usar circuitos integrados (chips
procesadores, por lo que la mayor parte del
de computadora) en vez de transistores por separado.
desempeño de la Cray-2 simplemente se debía a que
Mucha de su velocidad se debía a que usaba una
usaba chips mucho más rápidos. En la década de los
técnica conocida como procesamiento vectorial, la
90, los diseñadores de supercomputadoras intentaron
cual aprovecha el hecho de que la mayoría de las
un nuevo enfoque: en vez de tener unos cuantos
aplicaciones para supercomputadoras corre los
procesadores (la Cray-2 sólo tenía 8) compartiendo
mismos cálculos una y otra vez utilizando muchos
la misma memoria, le otorgaron a cada procesador su
conjuntos de datos almacenados en la memoria.
propia memoria y dispusieron una gran cantidad de
Tradicionalmente, una computadora toma el primer
ellos en una red. En este sistema, que se denomina
conjunto de datos de la memoria, realiza cálculos y
computación en malla, cuando los procesadores
arroja un resultado que escribe de nuevo en la
requieren intercambiar datos, los envían como un
memoria; una vez que termina el proceso completo,
mensaje a toda la red. Aunque esto resulta más lento
toma el siguiente conjunto de datos y repite la
que cablear los procesadores directamente entre
operación. La Cray-1 procesaba los datos como una
ellos, éstos pueden operar de manera más
línea de ensamble en una fábrica: continuamente y
independiente y no necesitan comunicarse tan
sin esperar a que el primer conjunto de datos se
frecuentemente. Así, la supercomputadora se puede
terminará de procesar para iniciar el tratamiento de
hacer mucho más grande y rápida con tan sólo
otro. Esto aseguraba que todos los circuitos
agregar más procesadores en la red.
estuvieran ocupados al mismo tiempo de manera
permanente. La sucesora de la Cray-1, la Cray-2,
Desde 1993, las supercomputadoras más rápidas del
apareció en 1985 y ocupó el lugar de la computadora
mundo han sido clasificadas en top500. Usando un
más rápida del mundo hasta 1990.
programa de análisis comparativo que mide la
velocidad de cómputo con base en el número de
operaciones de punto flotante por segundo, o flops.
Las operaciones de punto flotante son esencialmente
cálculos aritméticos que involucran números con
punto decimal. Si pudieras determinar la respuesta de
una operación como 14.1516 x 937.93 en un
segundo, tu cerebro estaría operando a una velocidad Si se están modelando las estrellas del universo o el
de flop. La velocidad de las supercomputadoras flujo de las moléculas de aire que pasan por una
modernas se mide en teraflops, o billones de flops, turbina, no se puede simplemente asignar a cada
unidad que equivale a mil teraflops. Y aún seguirán procesador una estrella o molécula diferente, debido
volviéndose más rápidas. a que los cálculos de un punto a otro de la simulación
afectan a aquellas que le rodean. En lugar de eso, se
Las supercomputadoras modernas usan decenas de asignan puntos específicos en el espacio, en donde se
miles de procesadores. La única forma de analiza la interacción entre las partículas de interés.
construirlas de manera económica es usar
componentes especiales; la mayoría de las 10 La interfaz de Programación Espacial con
principales supercomputadoras del mundo usan Direccionamiento Global es una nueva herramienta
versiones de alto desempeño de los procesadores de programación que permite a cada procesador
Intel que existen dentro de una típica computadora tratar todas las memorias de los distintos
personal. Las más recientes también usan las procesadores como una sola memoria compartida. La
unidades procesadoras de gráficos (GPU) empleadas GPI administra el envío de los mensajes correctos
en las computadoras estándar, más no para correr para mantener cada procesador actualizado en todo
videojuegos: estas GPU son excelentes para momento. esto permite al investigador dedicarse a
procesamiento vectorial y, al combinar CPU y GPU definir la manera en que la simulación debe correr,
en una misma unidad de cómputo, las con lo cual se incrementa la eficiencia de la
supercomputadoras híbridas son capaces de supercomputadora.
aprovechar las ventajas del procesamiento vectorial
y las de la computación en malla al mismo tiempo. China, India y Estados Unidos están trabajando para
Actualmente, las GPU se hacen cargo de construir una supercomputadora con capacidad de
aproximadamente 90% de la capacidad de exaflops (mil petaflops) para el año 2018. Será unas
procesamiento de las supercomputadoras más 30 veces más rápida que la supercomputadora
veloces, lo cual les permite operar 10 veces más Tianhe-2, que es actualmente la más rápida del
rápido que las dela generación anterior, pero mundo. La computación de exaflops permitirá, por
consumiendo apenas 2 veces más energía eléctrica. fin, modelar el cerebro humano al nivel de poder
simular perfectamente cada neurona, aunque el
Las aplicaciones para supercomputadoras se escriben factor limitante en este momento no es realmente el
en los lenguajes Fortran, C++ y Java, aunque crear dinero, sino la energía eléctrica. Tan sólo Tianhe-2
programas para supercomputadoras con usa 24 megawatts de potencia. ¡Una
procesamiento masivo en paralelo no se parece nada supercomputadora de exaflops requeriría usar una
a escribir software para una PC que corre con gran parte de la energía producida por una planta
Windows. A fin de poder aprovechar la capacidad de termoeléctrica de carbón! Sin importar cuán
todos los procesadores, es necesario dividir un impresionante sea la capacidad de procesamiento
problema en partes más pequeñas para poder matemático de las supercomputadoras, no son rival
distribuirlo. para la eficiencia energética del cerebro. Parece ser
que la gente sigue siendo aún de cierta utilidad.

A. Para qué sirven las supercomputadoras

Es normal oír hablar o leer sobre las


supercomputadoras como máquinas de tecnología
punta, gigantes capaces de desarrollar tareas que de
otra manera serían imposibles. Cuando aparece un
nuevo modelo que supera en potencia al resto de los
existentes se publican cifras de su rendimiento en
petaflops (esa desusada unidad de medida), se
destacan las decenas de miles de procesadores que
contiene o los cientos de miles de núcleos que lo 1) Predecir el clima
forman. Todo este desmesurado hardware tiene una
finalidad. ¿Quieres saber para qué sirve una No sólo la información que nos llega día a día de las
supercomputadora? A continuación detallamos agencias meteorológicas. Las supercomputadoras
algunos de los trabajos que llevan a cabo estas también calculan de antemano la formación de
máquinas. huracanes y otros fenómenos de riesgo, así como la
evolución que tendrán. El cambio climático es otra
En la actualidad, una supercomputadora es decenas área que se investiga con ayuda de este tipo de
de miles de veces más rápida que un ordenador de capacidades.
sobremesa medio. Mediante un procesamiento de la
información en paralelo alcanzan velocidades
impresionantes, que permiten una capacidad de
cálculo necesaria para abordar algunos de los
problemas y las dudas científicas más grandes de hoy
en día.

[4]En realidad son máquinas formadas por los


mismos componentes que encontramos en un
ordenador, sin embargo, éstos se han integrado de tal
forma que pueden funcionar coordinados y al mismo
tiempo. A día de hoy la supercomputadora más
rápida del mundo es la Tianhe-2, la segunda versión
de una máquina que también se colocó en primera
posición cuando se puso en marcha en 2010. De esta 2) Estudiar el Universo
forma China retoma el liderazgo en este terreno, que
hasta hace unas semanas correspondía a Estados Allá donde no podemos llegar físicamente es posible
Unidos, con Titán, que trabaja en el Oak Ridge intentar simular el escenario. En el Texas Advanced
National Laboratory. Computing Center estudian cómo se forman las
galaxias, mientras que en el Ames Research Center
Estas máquinas son capaces de realizar miles de de la NASA realizan simulaciones del nacimiento de
billones de operaciones de cálculo por segundo, es estrellas. Se trata de un método también para recrear
decir, despliegan unos pocos petaflops. Pero, ¿para al Big Bang y responder a preguntas sobre el origen
qué sirve una supercomputadora? Algunas de los del Universo. El superordenador de IBM
trabajos que realizan son los siguientes. Roadrunner, en Los Alamos Natinoal Laboratory, se
centra en uno de los mayores misterios cósmicos del
momento: la materia oscura.
3) Simulación del cerebro Los usos más comunes para las supercomputadoras
son: predicción del clima, complejas animaciones
El proyecto Blu Brain que se desarrolla en la Escuela 3D, cálculos de fluidos dinámicos, investigación
Politécnica Federal de Lausana, en Suiza, ha logrado nuclear, exploración petrolera, etc.
reproducir mediante simulación las funciones de un
cerebro. La máquina que está detrás de esta tarea es IV. REFERENCIAS
Blue Gene, de IBM. Esta compañía, junto con Cray
y SAP, ha prestado sus supercomputadoras para una [1]http://publicaciones.uci.cu/index.php/SC/article/
iniciativa más ambiciosa que ha surgido a partir de la view/609
anterior. Se trata de Human Brain Project y se ha
impuesto como misión construir la réplica de un [2] http://culturacion.com/las-supercomputadoras-
cerebro humano. que-son-y-para-que-sirven/

[3] http://dingox.com/tecnologia/las-
supercomputadoras-mas-rapidas-y-poderosas-del-
planeta.html

[4] http://blogthinkbig.com/usos-de-una-
supercomputadora/

4) Sustituir las pruebas con armas nucleares

Quedaron atrás los lanzamientos de prueba con


armas nucleares, en los años50 y 60. Ahora los
ensayos se hacen mediante simulación con
supercomputadoras. Sequoia, a la que desbancó
Titán como la más potente a finales de 2012, está
preparada para hacer este tipo de simulaciones desde
el Lawrence Livermore National Laboratory, en
California.

III. CONCLUSION

Superordenador con capacidades de cálculo muy


superiores a aquellas comunes para la misma época
de fabricación.

Son muy costosas, por eso su uso está limitado a


organismos militares, gubernamentales y empresas.
Generalmente tienen aplicaciones científicas,
especialmente simulaciones de la vida real.

Algunas supercomputadoras conocidas son Blue


Gene, Seymour Cray, Deep Blue, Earth Simulator,
MareNostrum, etc.

También podría gustarte