Supercomputadoras en el mundo moderno. Suscríbete a las noticias

En los últimos años, las empresas de diseño y producción informática han estado trabajando incansablemente. Como resultado, la cantidad de tecnología en el mundo está creciendo exponencialmente.

Los ordenadores más potentes

Recientemente, el mundo no conocía DirectX10 y los gráficos de FarCry o NFS Underground 2 parecían ser el pináculo de las capacidades de una computadora. Érase una vez un disco capaz de almacenar 600 megabytes de información que parecía un milagro de la tecnología, pero ahora las tarjetas de memoria de terabytes están disponibles gratuitamente.

En el campo de las supercomputadoras ocurre más o menos lo mismo. En 1993, al profesor de la Universidad de Tennessee, Jack Dongarra, se le ocurrió la idea de crear un ranking de las computadoras más potentes del mundo. Desde entonces, esta lista, denominada TOP500, se actualiza dos veces al año: en junio y noviembre.

El tiempo pasa y los líderes en el ranking de supercomputadoras de principios de los 90 ya están obsoletos incluso para los estándares de los usuarios comunes de PC. Así, el primero en 1993 fue el CM-5/1024, ensamblado por Thinking Machines: 1024 procesadores con una frecuencia de reloj de 32 MHz, una velocidad de computación de 59,7 gigaflops, un poco más rápido que una PC normal de 8 núcleos debajo de su escritorio. ¿Cuál es la mejor computadora actual?


Sunway TaihuLuz

Hace apenas cinco años, la palma en términos de potencia la ocupaban sistemáticamente los superordenadores fabricados en Estados Unidos. En 2013, los científicos chinos tomaron el liderazgo y, aparentemente, no van a renunciar a él.

Actualmente, se considera que la computadora más poderosa del mundo es la Sunway TaihuLight (traducida como "El poder de la luz divina del lago Taihu"), una máquina grandiosa con una velocidad de computación de 93 petaflops (velocidad máxima: 125,43 petaflops). Es 2,5 veces más potente que el poseedor del récord anterior: el superordenador Tianhe-2, considerado el más potente hasta junio de 2016.


Sunway Taihulight tiene 10,5 millones de núcleos integrados (40.960 procesadores, cada uno con 256 núcleos informáticos y 4 de control).

Así luce el ordenador más potente de 2016

Todo el equipo fue desarrollado y fabricado en China, mientras que los procesadores del ordenador más potente anterior fueron producidos por la empresa estadounidense Intel. El coste de Sunway TaihuLight se estima en 270 millones de dólares. La supercomputadora está ubicada en el Centro Nacional de Supercomputadoras del condado de Wuxi.

Poseedores de récords de años anteriores.

Hasta junio de 2016 (y la lista TOP500 se actualiza cada junio y noviembre), la computadora más poderosa y rápida era la supermáquina Tianhe-2 (traducida del chino como "Vía Láctea"), desarrollada en China en la Universidad de Ciencia y Tecnología de Defensa en Changsha con la ayuda de la empresa Inspur.


La potencia de Tianhe-2 proporciona 2.507 billones de operaciones por segundo (33,86 petaflops por segundo), y el rendimiento máximo es de 54,9 petaflops. El desarrollo chino encabeza esta clasificación desde su lanzamiento en 2013: ¡una cifra increíblemente impresionante!

Supercomputadora Tianhe-2

Las características de Tianhe-2 son las siguientes: 16 mil nodos, 32 mil procesadores Intel Xeon E5-2692 de 12 núcleos y 48 mil aceleradores Intel Xeon Phi 31S1P de 57 núcleos, lo que significa 3.120.000 núcleos en total; 256.000 unidades de RAM DDR3 de 4 GB cada una y 176.000 unidades de RAM GDDR5 de 8 GB: 2.432.000 GB de RAM en total. La capacidad del disco duro es de más de 13 millones de GB. Sin embargo, no podrás jugar en él: está diseñado únicamente para informática y Milky Way 2 no tiene una tarjeta de video instalada. En particular, ayuda en los cálculos para el tendido del metro y el desarrollo urbano.

Jaguar

Durante mucho tiempo, Jaguar, un superordenador estadounidense, estuvo en lo más alto del ranking. ¿En qué se diferencia de los demás y cuáles son sus ventajas técnicas?


La supercomputadora, llamada Jaguar, consta de una gran cantidad de celdas independientes divididas en dos secciones: XT4 y XT5. La última sección contiene exactamente 18688 celdas computacionales. Cada celda contiene dos procesadores AMD Opteron 2356 de seis núcleos con una frecuencia de 2,3 GHz, 16 GB de RAM DDR2 y un enrutador SeaStar 2+. Incluso una celda de esta sección sería suficiente para crear la computadora más potente para juegos. La sección contiene solo 149.504 núcleos informáticos, una gran cantidad de RAM: más de 300 TB, así como un rendimiento de 1,38 petaflops y más de 6 petabytes de espacio en disco.

Construyendo un monstruo informático

La partición XT4 contiene 7832 celdas. Sus características son más modestas que las de la anterior sección XT5: cada celda contiene un procesador de seis núcleos con una frecuencia de 2,1 GHz, 8 GB de RAM y un enrutador SeaStar 2. En total, la sección tiene 31.328 núcleos informáticos y más de 62 TB de memoria, así como un rendimiento máximo de 263 TFLOPS y más de 600 TB de espacio en disco. La supercomputadora Jaguar funciona con su propio sistema operativo, Cray Linux Environment.

En la parte trasera del Jaguar respira otra computadora, una creación de IBM: Roadrunner. El monstruo informático más poderoso es capaz de calcular hasta 1.000.000.000.000 de operaciones por segundo. Fue desarrollado específicamente para la Administración Nacional de Seguridad Nuclear del Departamento de Energía en Los Alamos. Con la ayuda de esta supercomputadora planearon monitorear el funcionamiento de todas las instalaciones nucleares ubicadas en los Estados Unidos.


La velocidad máxima de procesamiento del Road Runner es de aproximadamente 1,5 petaflops. Estamos hablando de una capacidad total de 3.456 servidores triple-blade originales, cada uno de los cuales es capaz de realizar unos 400 mil millones de operaciones por segundo (es decir, 400 gigaflops). Dentro del Roadrunner hay alrededor de 20 mil procesadores de doble núcleo de alto rendimiento: 12,960 Cell Broadband Engine y 6948 AMD Opteron, una creación de la propia IBM. Un superordenador de este tipo tiene una memoria de sistema de 80 terabytes.

Entonces, ¿cuánto espacio ocupa este milagro de la tecnología? La máquina está ubicada en una superficie de 560 metros cuadrados. Y todo el equipamiento del departamento está empaquetado en servidores de la arquitectura original. Todo el equipo pesa alrededor de 23 toneladas. Entonces, para transportarlo, el personal de la Administración Nacional de Seguridad Nuclear necesitará al menos 21 tractores grandes.

Algunas palabras sobre qué es el petaflops. Un petaflop equivale aproximadamente a la potencia total de 100 mil portátiles modernos. Si intentas imaginarlo, pueden pavimentar una carretera de casi dos kilómetros y medio de longitud. Otra comparación accesible: dentro de 46 años, toda la población del planeta utilizará calculadoras para realizar cálculos que Roadrunner puede hacer en un día. ¿Te imaginas lo poco que necesitará Sunway TaihuLigh, el líder de nuestra clasificación?

Titán

En 2012, el Laboratorio Nacional Oak Ridge del Departamento de Energía de EE. UU. lanzó la supercomputadora Titan, que tiene una potencia de 20 petaflops; en otras palabras, puede realizar mil billones de operaciones de punto flotante en un segundo.


Titán fue desarrollado por Cray. Además del Titán, en los últimos años los especialistas americanos han desarrollado otros dos superordenadores. Uno de ellos, Mira, está destinado a necesidades de investigación industrial y científica, y con la ayuda del otro, Sequoia, simulan pruebas de armas nucleares. IBM Corporation está detrás de todos estos desarrollos.

La computadora más poderosa de Rusia.

Desgraciadamente, el desarrollo ruso “Lomonosov-2”, reconocido como el ordenador más potente de Rusia, ocupa sólo el puesto 41 en el TOP500 (a junio de 2016). Tiene su sede en el Centro de Computación Científica de la Universidad Estatal de Moscú. La potencia de una supercomputadora doméstica es de 1.849 petaflops, la potencia máxima es de aproximadamente 2,5 petaflops. Número de núcleos: 42.688.



Suscríbete a nuestro canal en Yandex.Zen

Supercomputadora Titán

La gente todavía no vuela a Marte, el cáncer aún no se ha curado y no nos hemos deshecho de la adicción al petróleo. Y, sin embargo, hay áreas en las que la humanidad ha logrado avances increíbles en las últimas décadas. La potencia informática de las computadoras es solo una de ellas.

Dos veces al año, expertos del Laboratorio Nacional Lawrence Berkeley y de la Universidad de Tennessee publican el Top 500, que ofrece una lista de los superordenadores más potentes del mundo.

Mirando un poco hacia el futuro, le sugerimos que pruebe estos números con anticipación: la productividad de los diez primeros se mide en decenas de billones de fracasos. A modo de comparación: ENIAC, la primera computadora de la historia, tenía una potencia de 500 flops; Hoy en día, la computadora personal promedio tiene cientos de gigaflops (miles de millones de flops), el iPhone 6 tiene aproximadamente 172 gigaflops y la PS4 tiene 1,84 teraflops (billones de flops).

Armado con el último Top 500 de noviembre de 2014, Naked Science decidió descubrir cuáles son las 10 supercomputadoras más poderosas del mundo y qué problemas requieren una potencia informática tan enorme para resolverse.

  • Ubicación: Estados Unidos
  • Rendimiento: 3,57 petaflops
  • Rendimiento máximo teórico: 6,13 petaflops
  • Potencia: 1,4 MW

Como casi todas las supercomputadoras modernas, incluidas todas las presentadas en este artículo, CS-Storm consta de muchos procesadores unidos en una única red informática basada en el principio de una arquitectura masivamente paralela. En realidad, este sistema consta de muchos bastidores ("gabinetes") con componentes electrónicos (nodos formados por procesadores multinúcleo), que forman pasillos enteros.

Cray CS-Storm es toda una serie de clústeres de supercomputadoras, pero uno de ellos aún se destaca del resto. En concreto, se trata de la misteriosa CS-Storm, que está siendo utilizada por el gobierno estadounidense con fines desconocidos y en un lugar desconocido.

Lo que se sabe es que los funcionarios estadounidenses compraron un CS-Storm extremadamente eficiente en términos de consumo de energía (2386 megaflops por 1 vatio) con un número total de casi 79 mil núcleos a la empresa estadounidense Cray.

Sin embargo, en la página web del fabricante se afirma que los clústeres CS-Storm son adecuados para la informática de alto rendimiento en los campos de la ciberseguridad, la inteligencia geoespacial, el reconocimiento de patrones, el procesamiento de datos sísmicos, el renderizado y el aprendizaje automático. En algún momento de esta serie, probablemente se estableció el uso del CS-Storm gubernamental.

CRAY CS-TORMENTA

9. Vulcano – Gen azul/Q

  • Ubicación: Estados Unidos
  • Rendimiento: 4,29 petaflops
  • Rendimiento máximo teórico: 5,03 petaflops
  • Potencia: 1,9 MW

“Vulcan” fue desarrollado por la empresa estadounidense IBM, pertenece a la familia Blue Gene y está ubicado en el Laboratorio Nacional Lawrence Livermore. El superordenador, propiedad del Departamento de Energía de Estados Unidos, consta de 24 bastidores. El clúster comenzó a operar en 2013.

A diferencia del CS-Storm ya mencionado, el ámbito de aplicación de Vulcan es bien conocido: diversas investigaciones científicas, incluso en el campo de la energía, como el modelado de fenómenos naturales y el análisis de grandes cantidades de datos.

Varios grupos científicos y empresas pueden acceder al superordenador presentando una solicitud al Centro de Innovación en Computación de Alto Rendimiento (HPC Innovation Center), con sede en el mismo Laboratorio Nacional de Livermore.

Supercomputadora Vulcano

8. Juqueen – Gen azul/Q

  • Ubicación: Alemania
  • Rendimiento: 5 petaflops
  • Rendimiento máximo teórico: 5,87 petaflops
  • Potencia: 2,3 MW

Desde su lanzamiento en 2012, Juqueen ha sido el segundo superordenador más potente de Europa y el primero de Alemania. Al igual que Vulcan, este clúster de supercomputadoras fue desarrollado por IBM como parte del proyecto Blue Gene y pertenece a la misma generación Q.

El superordenador se encuentra en uno de los centros de investigación más grandes de Europa, en Jülich. En consecuencia, se utiliza para la informática de alto rendimiento en diversas investigaciones científicas.

supercomputadora juqueen

7. Estampida – PowerEdge C8220

  • Ubicación: Estados Unidos
  • Rendimiento: 5,16 petaflops
  • Rendimiento máximo teórico: 8,52 petaflops
  • Potencia: 4,5 MW

Ubicado en Texas, Stampede es el único cluster entre los diez primeros del Top 500 desarrollado por la empresa estadounidense Dell. La supercomputadora consta de 160 bastidores.

Este superordenador es el más potente del mundo entre los que se utilizan exclusivamente con fines de investigación. El acceso a las instalaciones de Stampede está abierto a grupos científicos. El grupo se utiliza en una amplia gama de campos científicos, desde la tomografía precisa del cerebro humano y la predicción de terremotos hasta la identificación de patrones en la música y las estructuras del lenguaje.

Estampida de supercomputadoras

6. Piz Daint – Cray XC30

  • Ubicación: Suiza
  • Rendimiento: 6,27 petaflops
  • Rendimiento máximo teórico: 7,78 petaflops
  • Potencia: 2,3 MW

El Centro Nacional Suizo de Supercomputación (CSCS) cuenta con el superordenador más potente de Europa. El Piz Daint, que lleva el nombre de la montaña alpina, fue desarrollado por Cray y pertenece a la familia XC30, dentro de la cual es la más productiva.

Piz Daint se utiliza para diversos fines de investigación, como por ejemplo simulaciones por ordenador en el campo de la física de altas energías.

Supercomputadora Piz Daint

5. Mira – Gen azul/Q

  • Ubicación: Estados Unidos
  • Rendimiento: 8,56 petaflops
  • Rendimiento máximo teórico: 10,06 petaflops
  • Potencia: 3,9 MW

La supercomputadora Mira fue desarrollada por IBM como parte del proyecto Blue Gene en 2012. La División de Computación de Alto Rendimiento del Laboratorio Nacional Argonne, que alberga el grupo, se creó con financiación gubernamental. Se cree que el aumento del interés en la tecnología de supercomputación por parte de Washington a finales de la década de 2000 y principios de la de 2010 se debe a la rivalidad con China en esta área.

Ubicado en 48 bastidores, Mira se utiliza con fines científicos. Por ejemplo, la supercomputadora se utiliza para modelización climática y sísmica, lo que permite obtener datos más precisos sobre la predicción de terremotos y cambios climáticos.

Supercomputadora Mira

4.K Computadora

  • Ubicación: Japón
  • Rendimiento: 10,51 petaflops
  • Rendimiento máximo teórico: 11,28 petaflops
  • Potencia: 12,6 MW

Desarrollado por Fujitsu y ubicado en el Instituto de Investigación Fisicoquímica de Kobe, el K Computer es el único superordenador japonés que aparece entre los diez primeros del Top 500.

En un momento (junio de 2011), este clúster ocupó la primera posición en el ranking, convirtiéndose en un año en la computadora más productiva del mundo. Y en noviembre de 2011, K Computer se convirtió en la primera de la historia en alcanzar una potencia superior a 10 petaflops.

La supercomputadora se utiliza en una serie de tareas de investigación. Por ejemplo, para pronosticar desastres naturales (lo cual es importante para Japón debido a la mayor actividad sísmica de la región y la alta vulnerabilidad del país en caso de tsunami) y modelado por computadora en el campo de la medicina.

supercomputadora k

3. Secuoya – Gen azul/Q

  • Ubicación: Estados Unidos
  • Rendimiento: 17,17 petaflops
  • Rendimiento máximo teórico: 20,13 petaflops
  • Potencia: 7,8 MW

El más potente de los cuatro superordenadores de la familia Blue Gene/Q, que se encuentran entre los diez primeros del ranking, se encuentra en el Laboratorio Nacional Livermore de Estados Unidos. IBM desarrolló Sequoia para la Administración Nacional de Seguridad Nuclear (NNSA), que necesitaba una computadora de alto rendimiento para un propósito muy específico: simular explosiones nucleares.

Vale la pena mencionar que las pruebas nucleares reales están prohibidas desde 1963 y la simulación por computadora es una de las opciones más aceptables para continuar la investigación en esta área.

Sin embargo, el poder de la supercomputadora se utilizó para resolver otros problemas mucho más nobles. Por ejemplo, el grupo logró establecer récords de rendimiento en el modelado cosmológico, así como en la creación de un modelo electrofisiológico del corazón humano.

supercomputadora secoya

2. Titán – Cray XK7

  • Ubicación: Estados Unidos
  • Rendimiento: 17,59 petaflops
  • Rendimiento máximo teórico: 27,11 petaflops
  • Potencia: 8,2 MW

La supercomputadora más productiva jamás creada en Occidente, así como el grupo de computadoras más potente de la marca Cray, se encuentra en los Estados Unidos, en el Laboratorio Nacional de Oak Ridge. A pesar de que el superordenador del Departamento de Energía de Estados Unidos está oficialmente disponible para cualquier investigación científica, en octubre de 2012, cuando se lanzó Titan, el número de aplicaciones superó todos los límites.

Debido a esto, se convocó una comisión especial en el Laboratorio Oak Ridge, que seleccionó solo 6 de los proyectos más "avanzados" de 50 solicitudes. Entre ellos, por ejemplo, modelar el comportamiento de los neutrones en el corazón mismo de un reactor nuclear, así como pronosticar los cambios climáticos globales para los próximos 1 a 5 años.

A pesar de su potencia informática y sus impresionantes dimensiones (404 metros cuadrados), Titan no duró mucho en el pedestal. Apenas seis meses después del triunfo en noviembre de 2012, el orgullo estadounidense en el campo de la informática de alto rendimiento fue inesperadamente suplantado por un nativo del Este, superando a los anteriores líderes del ranking de una manera sin precedentes.

Supercomputadora Titán

1. Tianhe-2 / Vía Láctea-2

  • Ubicación: China
  • Rendimiento: 33,86 petaflops
  • Rendimiento máximo teórico: 54,9 petaflops
  • Potencia: 17,6 MW

Desde su primer lanzamiento, Tianhe-2, o Vía Láctea-2, ha sido líder del Top-500 durante aproximadamente dos años. Este monstruo es casi dos veces más poderoso que el número 2 del ranking: la supercomputadora TITAN.

Desarrollado por la Universidad de Ciencia y Tecnología de Defensa del Ejército Popular de Liberación e Inspur, Tianhe-2 consta de 16 mil nodos con un número total de núcleos de 3,12 millones. La memoria RAM de esta colosal estructura, que ocupa 720 metros cuadrados, es de 1,4 petabytes, y el dispositivo de almacenamiento es de 12,4 petabytes.

Milky Way 2 fue diseñado por iniciativa del gobierno chino, por lo que no sorprende que su poder sin precedentes parezca servir a las necesidades del estado. Se informó oficialmente que la supercomputadora realiza diversas simulaciones, analiza enormes cantidades de datos y garantiza la seguridad nacional de China.

Teniendo en cuenta el secreto inherente a los proyectos militares chinos, uno sólo puede adivinar qué tipo de uso recibe la Vía Láctea-2 de vez en cuando en manos del ejército chino.

Supercomputadora Tianhe-2

Inicio → Historia de la tecnología informática nacional → Supercomputadoras

Supercomputadoras

Andrei Borzenko

Las supercomputadoras son las computadoras más rápidas. Su principal diferencia con los mainframes es la siguiente: todos los recursos de una computadora de este tipo generalmente están destinados a resolver una o al menos varias tareas lo más rápido posible, mientras que los mainframes, por regla general, realizan una cantidad bastante grande de tareas que compiten entre sí. otro. El rápido desarrollo de la industria informática determina la relatividad del concepto básico: lo que hace diez años se podía llamar superordenador, hoy ya no entra dentro de esta definición. También existe una definición humorística de supercomputadora: es un dispositivo que reduce el problema informático a un problema de entrada-salida. Sin embargo, hay algo de verdad en esto: a menudo el único cuello de botella en un sistema de alta velocidad son los dispositivos de E/S. Puede averiguar qué superordenadores tienen actualmente el máximo rendimiento en la lista oficial de los quinientos sistemas más potentes del mundo: Top500 (http://www.top500.org), que se publica dos veces al año.

En cualquier computadora, todos los parámetros principales están estrechamente relacionados. Es difícil imaginar una computadora universal que tenga un alto rendimiento y poca RAM, o una enorme RAM y poco espacio en disco. Por este motivo, los superordenadores se caracterizan actualmente no sólo por el máximo rendimiento, sino también por la máxima cantidad de RAM y memoria de disco. Proporcionar estas características técnicas es bastante caro: el coste de las supercomputadoras es extremadamente alto. ¿Qué tareas son tan importantes que requieren sistemas que cuestan decenas o cientos de millones de dólares? Por regla general, se trata de problemas informáticos científicos o de ingeniería fundamentales con una amplia gama de aplicaciones, cuya solución eficaz sólo es posible con la disponibilidad de potentes recursos informáticos. Estas son sólo algunas áreas donde surge este tipo de problema:

  • predicciones del tiempo, el clima y los cambios globales en la atmósfera;
  • ciencia de los Materiales;
  • construcción de dispositivos semiconductores;
  • superconductividad;
  • biología estructural;
  • desarrollo de productos farmacéuticos;
  • genética humana;
  • cromodinámica cuántica;
  • astronomía;
  • industria automotriz;
  • tareas de transporte;
  • dinámica de hidro y gases;
  • fusión termonuclear controlada;
  • eficiencia de los sistemas de combustión de combustible;
  • exploración de petróleo y gas;
  • problemas computacionales en ciencias oceánicas;
  • reconocimiento y síntesis de voz;
  • reconocimiento de imagen.

Los superordenadores calculan muy rápidamente gracias no sólo al uso de la base de elementos más moderna, sino también a nuevas soluciones en la arquitectura del sistema. El lugar principal aquí lo ocupa el principio de procesamiento de datos paralelo, que encarna la idea de ejecución simultánea (paralela) de varias acciones. El procesamiento paralelo tiene dos tipos: canalización y paralelismo real. La esencia del procesamiento de tuberías es resaltar las etapas individuales de la realización de una operación general, y cada etapa, una vez completada su trabajo, pasa el resultado a la siguiente, al mismo tiempo que acepta una nueva porción de datos de entrada. Se obtiene una ganancia evidente en la velocidad de procesamiento combinando operaciones previamente espaciadas.

Si un determinado dispositivo realiza una operación por unidad de tiempo, realizará mil operaciones en mil unidades. Si hay cinco dispositivos independientes idénticos capaces de funcionar simultáneamente, entonces un sistema de cinco dispositivos puede realizar las mismas mil operaciones no en mil, sino en doscientas unidades de tiempo. De manera similar, un sistema de N dispositivos realizará el mismo trabajo en 1000/N unidades de tiempo.

Por supuesto, hoy en día pocas personas se sorprenden por el paralelismo en la arquitectura de las computadoras. Todos los microprocesadores modernos utilizan alguna forma de procesamiento paralelo, incluso dentro del mismo chip. Al mismo tiempo, estas ideas aparecieron hace mucho tiempo. Inicialmente, se implementaron en las computadoras más avanzadas y, por lo tanto, únicas de su época. En este caso, el crédito especial es para IBM y Control Data Corporation (CDC). Estamos hablando de innovaciones como la memoria de bits paralelos, la aritmética de bits paralelos, los procesadores de entrada/salida independientes, la canalización de comandos, las unidades funcionales independientes de la canalización, etc.

Por lo general, la palabra "supercomputadora" se asocia con las computadoras Cray, aunque hoy en día esto está lejos de ser así. El desarrollador y diseñador jefe de la primera supercomputadora fue Seymour Cray, una de las figuras más legendarias de la industria informática. En 1972, dejó los CDC y fundó su propia empresa, Cray Research. La primera supercomputadora, CRAY-1, se desarrolló cuatro años después (en 1976) y tenía una arquitectura de canalización vectorial con 12 unidades funcionales canalizadas. El rendimiento máximo del Cray-1 fue de 160 MT/s (tiempo de reloj de 12,5 ns) y la RAM de 64 bits (que podía ampliarse a 8 MB) tenía un tiempo de ciclo de 50 ns. La principal innovación fue, por supuesto, la introducción de comandos vectoriales que funcionan con conjuntos completos de datos independientes y permiten el uso eficiente de dispositivos funcionales de tubería.

A lo largo de los años 60 y 80, la atención de los líderes mundiales en la producción de supercomputadoras se centró en la producción de sistemas informáticos que fueran buenos para resolver problemas de punto flotante de gran volumen. No faltaron tales tareas: casi todas estaban relacionadas con la investigación nuclear y el modelado aeroespacial y se llevaban a cabo en interés de los militares. El deseo de conseguir el máximo rendimiento en el menor tiempo posible hacía que el criterio para evaluar la calidad de un sistema no fuera su precio, sino su rendimiento. Por ejemplo, el superordenador Cray-1 costaba entonces entre 4 y 11 millones de dólares, dependiendo de la configuración.

A principios de los 80-90. La Guerra Fría terminó y los pedidos militares fueron sustituidos por comerciales. En ese momento, la industria había logrado grandes avances en la producción de procesadores en serie. Tenían aproximadamente la misma potencia informática que los personalizados, pero eran mucho más baratos. El uso de componentes estándar y un número variable de procesadores permitió solucionar el problema de escalabilidad. Ahora, a medida que aumentaba la carga informática, era posible aumentar el rendimiento de la supercomputadora y sus dispositivos periféricos añadiendo nuevos procesadores y dispositivos de E/S. Así, en 1990 apareció el superordenador Intel iPSC/860 con un número de procesadores igual a 128, que mostró un rendimiento de 2,6 Gflops en la prueba LINPACK.

El pasado mes de noviembre se publicó la 18ª edición de la lista de los 500 ordenadores más potentes del mundo, el Top500. El líder de la lista sigue siendo IBM Corporation (http://www.ibm.com), que posee el 32% de los sistemas instalados y el 37% de la productividad total. Una noticia interesante fue la aparición de Hewlett-Packard en el segundo lugar en términos de número de sistemas (30%). Además, dado que todos estos sistemas son relativamente pequeños, su rendimiento total es sólo el 15% de la lista completa. Tras la fusión con Compaq, se espera que la nueva empresa domine la lista. Los siguientes en términos de número de computadoras en la lista son SGI, Cray y Sun Microsystems.

El superordenador más potente del mundo seguía siendo el sistema ASCI White (volveremos sobre él más adelante), instalado en el Laboratorio Livermore (EE. UU.) y que en la prueba LINPACK mostró un rendimiento de 7,2 Tflops (58% del rendimiento máximo). En segundo lugar quedó el sistema Compaq AlphaServer SC instalado en el Centro de Supercomputación de Pittsburgh con un rendimiento de 4 Tflops. El sistema Cray T3E cierra la lista con un rendimiento LINPACK de 94 Gflops.

Vale la pena señalar que la lista ya incluía 16 sistemas con un rendimiento de más de 1 teraflops, la mitad de los cuales fueron instalados por IBM. El número de sistemas que son grupos de pequeños bloques SMP aumenta constantemente: ahora hay 43 sistemas de este tipo en la lista. Sin embargo, la mayor parte de la lista sigue correspondiendo a sistemas masivamente paralelos (50%), seguidos de clústeres formados por grandes sistemas SMP (29%).

Tipos de arquitecturas

El principal parámetro para clasificar las computadoras paralelas es la presencia de memoria compartida o distribuida. Algo intermedio son las arquitecturas donde la memoria se distribuye físicamente pero se comparte lógicamente. Desde el punto de vista del hardware, se sugieren dos esquemas principales para implementar sistemas paralelos. El primero son varios sistemas separados, con memoria y procesadores locales, que interactúan en algún entorno mediante el envío de mensajes. El segundo son los sistemas que interactúan a través de la memoria compartida. Sin entrar en detalles técnicos por ahora, digamos algunas palabras sobre los tipos de arquitecturas de las supercomputadoras modernas.

La idea de sistemas masivamente paralelos con memoria distribuida (Massively Parallel Processing, MPP) es bastante simple. Para ello, se toman microprocesadores convencionales, cada uno de los cuales está equipado con su propia memoria local y está conectado a través de algún tipo de medio de conmutación. Una arquitectura de este tipo tiene muchas ventajas. Si necesita un alto rendimiento, puede agregar más procesadores, y si las finanzas son limitadas o se conoce de antemano la potencia informática requerida, entonces es fácil seleccionar la configuración óptima. Sin embargo, el MPP también tiene desventajas. El hecho es que la interacción entre procesadores es mucho más lenta que el procesamiento de datos por parte de los propios procesadores.

En los ordenadores paralelos con memoria compartida, toda la RAM se comparte entre varios procesadores idénticos. Esto elimina los problemas de la clase anterior, pero añade otros nuevos. El hecho es que el número de procesadores con acceso a la memoria compartida no puede ampliarse por razones puramente técnicas.

Las características principales de las computadoras de canalización vectorial son, por supuesto, las unidades funcionales de canalización y un conjunto de instrucciones vectoriales. A diferencia del enfoque tradicional, los comandos vectoriales operan en conjuntos completos de datos independientes, lo que permite una carga eficiente de las canalizaciones disponibles.

La última dirección, estrictamente hablando, no es independiente, sino más bien una combinación de las tres anteriores. Un nodo informático está formado por varios procesadores (tradicionales o de canalización vectorial) y su memoria común. Si la potencia informática obtenida no es suficiente, se combinan varios nodos con canales de alta velocidad. Como sabes, esta arquitectura se llama clúster.

sistemas MPP

Los sistemas escalables masivamente paralelos están diseñados para resolver problemas de aplicaciones que requieren una gran cantidad de computación y procesamiento de datos. Echemos un vistazo más de cerca. Como regla general, constan de nodos informáticos homogéneos, que incluyen:

  • una o más unidades centrales de procesamiento;
  • memoria local (no es posible el acceso directo a la memoria de otros nodos);
  • procesador de comunicaciones o adaptador de red;
  • a veces discos duros y/u otros dispositivos de entrada/salida.

Además, se pueden agregar al sistema nodos de E/S especiales y nodos de control. Todos ellos están conectados a través de algún medio de comunicación (red de alta velocidad, conmutador, etc.). En cuanto al sistema operativo, existen dos opciones. En el primer caso, un sistema operativo completo se ejecuta solo en la máquina de control, mientras que cada nodo ejecuta una versión muy reducida del sistema operativo, proporcionando solo el funcionamiento de la rama de la aplicación paralela ubicada en él. En otro caso, cada nodo ejecuta un sistema operativo completo tipo UNIX.

La cantidad de procesadores en los sistemas de memoria distribuida es teóricamente ilimitada. Utilizando dichas arquitecturas, es posible construir sistemas escalables cuyo rendimiento aumenta linealmente con el número de procesadores. Por cierto, el propio término "sistemas masivamente paralelos" se suele utilizar para referirse a ordenadores escalables con un gran número (decenas y cientos) de nodos. La escalabilidad de un sistema informático es necesaria para acelerar proporcionalmente los cálculos, pero lamentablemente no es suficiente. Para obtener una ganancia adecuada en la resolución de un problema, también se requiere un algoritmo escalable que pueda cargar todos los procesadores de una supercomputadora con cálculos útiles.

Recordemos que existen dos modelos de ejecución de programas en sistemas multiprocesador: SIMD (flujo de instrucciones único - flujos de datos múltiples) y MIMD (flujos de instrucciones múltiples - flujos de datos múltiples). El primero supone que todos los procesadores ejecutan el mismo comando, pero cada uno con sus propios datos. En el segundo, cada procesador procesa su propio flujo de comandos.

En los sistemas de memoria distribuida, para transferir información de un procesador a otro, se requiere un mecanismo para pasar mensajes a través de una red que conecte nodos informáticos. Para abstraerse de los detalles del funcionamiento de los equipos y programas de comunicación a alto nivel, se suelen utilizar bibliotecas de paso de mensajes.

Supercomputadoras Intel

Intel Corporation (http://www.intel.com) es muy conocida en el mundo de las supercomputadoras. Sus computadoras multiprocesador Paragon de memoria distribuida se han vuelto tan clásicas como las computadoras de canalización vectorial de Cray Research.

Intel Paragon utiliza cinco procesadores i860 XP con una frecuencia de reloj de 50 MHz en un nodo. A veces, en un nodo se colocan procesadores de diferentes tipos: escalar, vectorial y de comunicación. Este último sirve para liberar al procesador principal de realizar operaciones relacionadas con la transmisión de mensajes.

La característica más significativa de la nueva arquitectura paralela es el tipo de equipo de comunicación. De ello dependen los dos indicadores más importantes del funcionamiento de una supercomputadora: la velocidad de transferencia de datos entre procesadores y la sobrecarga de transmitir un mensaje.

La interconexión está diseñada para proporcionar altas velocidades de mensajería con una latencia mínima. Proporciona la conexión de más de mil nodos heterogéneos a lo largo de una topología de celosía rectangular bidimensional. Sin embargo, para la mayoría del desarrollo de aplicaciones, se puede considerar que cualquier nodo está conectado directamente a todos los demás nodos. La interconexión es escalable: su rendimiento aumenta con el número de nodos. Al diseñar, los desarrolladores buscaron minimizar la participación en la transmisión de mensajes de aquellos procesadores que ejecutan procesos de usuario. Para ello, se han introducido procesadores de procesamiento de mensajes especiales, que se encuentran en la placa de nodos y son responsables de procesar el protocolo de mensajería. Como resultado, los procesadores principales de los nodos no se distraen de resolver el problema. En particular, no existe un cambio costoso de una tarea a otra y la solución de los problemas aplicados se produce en paralelo con el intercambio de mensajes.

La transmisión real de mensajes se lleva a cabo mediante un sistema de enrutamiento basado en los componentes del enrutador de nodos de la red (Mesh Router Components, MRC). Para el acceso MRC de un nodo determinado a su memoria, el nodo también tiene un controlador de red de interfaz especial, que es un VLSI personalizado que proporciona transmisión simultánea hacia y desde la memoria del nodo, así como monitoreo de errores durante la transmisión de mensajes.

El diseño modular de Intel Paragon hace más que solo respaldar la escalabilidad. Nos permite contar con que esta arquitectura servirá de base para nuevos ordenadores basados ​​en otros microprocesadores o que utilicen nuevas tecnologías de mensajería. La escalabilidad también depende del equilibrio de los distintos bloques de una supercomputadora en diversos niveles; de lo contrario, a medida que aumenta el número de nodos, puede aparecer un cuello de botella en alguna parte del sistema. Así, la velocidad y la capacidad de memoria de los nodos se equilibran con el ancho de banda y la latencia de la interconexión, y el rendimiento de los procesadores dentro de los nodos se equilibra con el ancho de banda de la memoria caché y la RAM, etc.

Hasta hace poco, una de las computadoras más rápidas era Intel ASCI Red, una creación de la Iniciativa de Computación Estratégica Acelerada ASCI (Iniciativa de Computación Estratégica Acelerada). En este programa participan los tres laboratorios nacionales más grandes de Estados Unidos (Livermore, Los Alamos y Sandia). Construido para el Departamento de Energía de EE. UU. en 1997, ASCI Red combina procesadores Pentium Pro 9152, tiene 600 GB de RAM total y un rendimiento total de 1800 mil millones de operaciones por segundo.

Supercomputadoras IBM

Cuando aparecieron en el mercado informático los sistemas universales con arquitectura paralela escalable SP (Scalable POWER paralelo) de IBM Corporation (http://www.ibm.com), rápidamente ganaron popularidad. Hoy en día, estos sistemas operan en una variedad de áreas de aplicación, como química computacional, análisis de accidentes, diseño de circuitos electrónicos, análisis sísmico, modelado de yacimientos, soporte de decisiones, análisis de datos y procesamiento de transacciones en línea. El éxito de los sistemas SP está determinado principalmente por su versatilidad, así como por la flexibilidad de la arquitectura, basada en un modelo de memoria distribuida con paso de mensajes.

En términos generales, una supercomputadora SP es un sistema informático de propósito general, escalable y masivamente paralelo, que consta de un conjunto de estaciones base RS/6000 conectadas por un conmutador de alto rendimiento. De hecho, ¿quién no conoce, por ejemplo, el superordenador Deep Blue, que logró vencer a Garry Kasparov en el ajedrez? Pero una de sus modificaciones consta de 32 nodos (IBM RS/6000 SP), basados ​​en 256 procesadores P2SC (Power Two Super Chip).

La familia RS/6000 es la segunda generación de computadoras de IBM, basada en la arquitectura de conjunto de instrucciones limitadas (RISC) desarrollada por la corporación a finales de los años 1970. Con este concepto, se utiliza un conjunto muy simple de comandos para realizar todo el trabajo en un sistema informático. Debido a que los comandos son simples, se pueden ejecutar a velocidades muy altas y también proporcionan una implementación más eficiente del programa ejecutable. La familia RS/6000 se basa en la arquitectura POWER (rendimiento optimizado mediante arquitectura RISC avanzada) y sus derivados: PowerPC, P2SC, POWER3, etc. Debido a que la arquitectura POWER combina conceptos de arquitectura RISC con algunos conceptos más tradicionales, el resultado es un sistema con rendimiento general óptimo.

El sistema RS/6000 SP proporciona la potencia de múltiples procesadores para resolver los problemas informáticos más complejos. El sistema de conmutación SP es la última innovación de IBM en comunicación entre procesadores sin latencia y de gran ancho de banda para una computación paralela eficiente. Varios tipos de nodos de procesador, tamaños de bastidor (rack) variables y una variedad de capacidades de E/S adicionales garantizan la selección de la configuración del sistema más adecuada. SP cuenta con el respaldo de proveedores de software líderes en áreas como bases de datos paralelas y procesamiento de transacciones en tiempo real, así como de importantes proveedores de software técnico en áreas como procesamiento sísmico y diseño de ingeniería.

IBM RS/6000 SP mejora las capacidades de las aplicaciones con procesamiento paralelo. El sistema elimina las limitaciones de rendimiento y ayuda a evitar problemas asociados con el escalado y la presencia de fragmentos indivisibles ejecutados por separado. Con más de mil clientes instalados en todo el mundo, los SP brindan soluciones para aplicaciones técnicas y comerciales complejas y de gran volumen.

La unidad principal del SP es un nodo procesador que tiene una arquitectura de estación de trabajo RS/6000. Hay varios tipos de nodos SP: delgados, anchos, altos, que se diferencian en una serie de parámetros técnicos. Por ejemplo, los nodos altos basados ​​en POWER3-II incluyen hasta 16 procesadores y hasta 64 GB de memoria, pero los nodos delgados no permiten más de 4 procesadores y 16 GB de memoria.

El sistema es escalable hasta 512 nodos y es posible combinar diferentes tipos de nodos. Los nodos se instalan en racks (hasta 16 nodos en cada uno). SP puede escalar discos casi linealmente junto con procesadores y memoria, lo que permite un acceso real a terabytes de memoria. Este aumento de potencia hace que sea más fácil construir y ampliar el sistema.

Los nodos están interconectados por un conmutador de alto rendimiento (conmutador de alto rendimiento de IBM), que tiene una estructura de varias etapas y funciona con conmutación de paquetes.

Cada nodo SP ejecuta un sistema operativo AIX completo, lo que le permite aprovechar miles de aplicaciones AIX preexistentes. Además, los nodos del sistema se pueden combinar en grupos. Por ejemplo, varios nodos pueden actuar como servidores de Lotus Notes, mientras que todos los demás procesan una base de datos paralela.

La gestión de sistemas grandes es siempre una tarea desafiante. SP utiliza una única consola gráfica para este propósito, que muestra los estados del hardware y software, las tareas en ejecución y la información del usuario. El administrador del sistema, utilizando dicha consola (estación de trabajo de control) y el producto de software PSSP (Programas de soporte de sistemas paralelos) adjunto al SP, resuelve tareas de gestión, incluida la gestión de la protección con contraseña y los permisos de usuario, la contabilidad de las tareas realizadas, la gestión de impresiones y la supervisión del sistema. , iniciando y apagando el sistema.

El mejor

Como ya se señaló, según Top500 (tabla), la supercomputadora más poderosa de nuestro tiempo es ASCI White, que ocupa un área del tamaño de dos canchas de baloncesto y está instalada en el Laboratorio Nacional Livermore. Incluye 512 nodos SMP basados ​​en procesadores POWER3-II de 64 bits (para un total de 8192 procesadores) y utiliza la nueva tecnología de comunicaciones Colony con un rendimiento de aproximadamente 500 MB/s, que es casi cuatro veces más rápido que el SP de alto rendimiento. cambiar.

Top ten Top500 (18ª edición)

Posición Fabricante Computadora Donde está instalado Un país Año Número de procesadores
1 IBM ASCI Blanco EE.UU 2000 8192
2 Compaq AlphaServer SC Centro de supercomputación de Pittsburgh EE.UU 2001 3024
3 IBM Potencia SP3 Instituto de Investigación Energética NERSC EE.UU 2001 3328
4 Intel ASCI rojo Laboratorio Nacional Sandia EE.UU 1999 9632
5 IBM ASCI Pacífico Azul Laboratorio Nacional Livermore EE.UU 1999 5808
6 Compaq AlphaServer SC EE.UU 2001 1536
7 Hitachi SR8000/MPP Universidad de Tokio Japón 2001 1152
8 SGI Montaña Azul ASCI Laboratorio Nacional de Los Álamos EE.UU 1998 6144
9 IBM Potencia SP3 Centro Oceanográfico NAVOCEANO EE.UU 2000 1336
10 IBM Potencia SP3 servicio meteorológico alemán Alemania 2001 1280

La arquitectura del nuevo superordenador se basa en la probada arquitectura masivamente paralela RS/6000 y proporciona un rendimiento de 12,3 teraflops (billones de operaciones por segundo). El sistema incluye un total de 8 TB de RAM distribuidos en nodos SMP de 16 procesadores y 160 TB de memoria de disco. Para entregar el sistema desde los laboratorios de IBM en el estado de Nueva York a Livermore, California, se necesitaron 28 camiones con remolque.

Todos los nodos del sistema ejecutan el sistema operativo AIX. La supercomputadora está siendo utilizada por científicos del Departamento de Energía de EE. UU. para ejecutar modelos 3D complejos para mantener seguras las armas nucleares. En realidad, ASCI White es el tercer paso del programa de cinco etapas de ASCI, que planea crear una nueva supercomputadora en 2004. En términos generales, ASCI White consta de tres sistemas separados, de los cuales White es el más grande (512 nodos, 8192 procesadores), y también está Ice (28 nodos, 448 procesadores) y Frost (68 nodos, 1088 procesadores).

El predecesor de ASCI White fue el superordenador Blue Pacific (otro nombre de ASCI Blue), que incluía 1464 nodos de cuatro procesadores basados ​​en cristales PowerPC 604e/332 MHz. Los nodos están conectados en un solo sistema mediante cables que suman casi cinco millas y el área de la sala de computadoras es de 8 mil pies cuadrados. El sistema ASCI Blue consta de un total de 5856 procesadores y proporciona un rendimiento máximo de 3,88 teraflops. La cantidad total de RAM es de 2,6 TB.

Una supercomputadora está formada por kilómetros de cables.

El Centro Nacional de Investigación Atmosférica (NCAR) de Estados Unidos ha seleccionado a IBM como proveedor del superordenador más potente del mundo diseñado para predecir el cambio climático. El sistema, conocido como Blue Sky, aumentará las capacidades de modelado climático del NCAR en un orden de magnitud cuando esté en pleno funcionamiento este año. El núcleo de Blue Sky será la supercomputadora IBM SP y los sistemas IBM eServer p690, cuyo uso permitirá alcanzar un rendimiento máximo de casi 7 Tflops con un volumen del subsistema de disco IBM SSA de 31,5 TB.

El superordenador, llamado Blue Storm, fue creado por encargo del Centro Europeo de Previsiones Meteorológicas a Plazo Medio (ECMWF). Blue Storm será dos veces más potente que ASCI White. Para crearlo, necesita 100 servidores IBM eServer p690, también conocido como Regatta. Cada unidad del sistema, del tamaño de un frigorífico, contiene más de mil procesadores. En 2004, Blue Storm estará equipado con servidores p960 de nueva generación, lo que le permitirá duplicar su potencia. La supercomputadora ejecutará el sistema operativo AIX. Inicialmente, la capacidad total de las unidades Blue Storm será de 1,5 petabytes y la potencia informática será de unos 23 teraflops. El sistema pesará 130 toneladas y será 1.700 veces más potente que el superordenador de ajedrez Deep Blue.

Los investigadores de IBM están trabajando con el Laboratorio Nacional Livermore en las computadoras Blue Gene/L y Blue Gene/C. Estos ordenadores forman parte del proyecto quinquenal Blue Gene, que comenzó en 1999 para estudiar proteínas y en el que se invirtieron 100 millones de dólares. La creación del nuevo superordenador Blue Gene/L (200 teraflops) finalizará en 2004, para seis meses, un año antes de la finalización prevista del trabajo en el ordenador más potente Blue Gene/C (1.000 teraflops). El rendimiento del diseño de Blue Gene/L superará así el rendimiento combinado de los 500 ordenadores más potentes del mundo. Al mismo tiempo, la nueva supercomputadora ocupa un área equivalente a sólo la mitad de una cancha de tenis. Los ingenieros de IBM también trabajaron para reducir el consumo de energía: lograron reducirlo 15 veces.

Notas

Pruebas LINPACK.
Los puntos de referencia LINPACK se basan en la resolución de un sistema de ecuaciones lineales con una matriz densa de coeficientes sobre un campo de números reales mediante eliminación gaussiana. Los números reales suelen representarse con total precisión. Debido a la gran cantidad de operaciones con números reales, los resultados de LINPACK se consideran el punto de referencia para el rendimiento de configuraciones de hardware y software en áreas que utilizan intensamente cálculos matemáticos complejos.

Simulador de la Tierra.
Según la revista New Scientist, en la nueva versión número 19 de la lista Top500 de supercomputadoras, el sistema de supercomputadora para el proyecto Earth Simulator de NEC Corporation ocupará el primer lugar. Está instalado en el Instituto Japonés de Ciencias de la Tierra (Instituto de Ciencias de la Tierra de Yokohama) en Kanagawa, Prefectura de Yokohama. Los desarrolladores afirman que su rendimiento máximo puede alcanzar los 40 Tflops.

La supercomputadora Earth Simulator está diseñada para simular el cambio climático basándose en datos recibidos de los satélites. Según los representantes de NEC, el alto rendimiento de la computadora se logra mediante el uso de procesadores vectoriales especialmente diseñados. El sistema se basa en 5120 procesadores de este tipo, combinados en 640 nodos SX-6 (8 procesadores cada uno). La supercomputadora ejecuta el sistema operativo SUPER-UX. Las herramientas de desarrollo incluyen compiladores para lenguajes C/C++, Fortran 90 y HPF, así como herramientas de vectorización automática, una implementación de la interfaz MPI-2 y la biblioteca matemática ASL/ES. Toda la máquina ocupa el área de tres canchas de tenis (50 por 65 m) y utiliza varios kilómetros de cable.

El superordenador K Computer, que hasta entonces ocupaba el primer lugar, ha pasado al tercer lugar. Su rendimiento es de 11,28 Pflops (ver Figura 1). Recordemos que FLOPS (Operaciones de punto flotante por segundo, FLOPS) es una unidad de medida del rendimiento de una computadora, que muestra cuántas operaciones de punto flotante por segundo es capaz de realizar un sistema informático determinado.

K Computer es un desarrollo conjunto del Instituto Rikagaku Kenkiyo de Investigación Física y Química (RIKEN) y Fujitsu. Fue creado como parte de la iniciativa de Infraestructura de Computación de Alto Rendimiento liderada por el Ministerio de Educación, Cultura, Deportes, Ciencia y Tecnología de Japón (MEXT). La supercomputadora está instalada en el territorio del Instituto de Ciencias Informáticas Avanzadas de la ciudad japonesa de Kobe.

La supercomputadora se basa en una arquitectura de memoria distribuida. El sistema consta de más de 80.000 nodos de cómputo y está alojado en 864 racks, cada uno de los cuales tiene capacidad para 96 ​​nodos de cómputo y 6 nodos de E/S. Los nodos, cada uno con un procesador y 16 GB de RAM, están interconectados de acuerdo con la topología de “bucle/toro de seis dimensiones”. El sistema utiliza un total de 88.128 procesadores SPARC64 VIIIfx de ocho núcleos (705.024 núcleos) fabricados por Fujitsu con tecnología de 45 nm.

Esta supercomputadora de uso general proporciona altos niveles de rendimiento y soporte para una amplia gama de aplicaciones. El sistema se utiliza para realizar investigaciones en los campos del cambio climático, la prevención de desastres y la medicina.

El exclusivo sistema de refrigeración por agua reduce la probabilidad de fallos del equipo y reduce el consumo general de energía. El ahorro de energía se logra mediante el uso de equipos altamente eficientes, un sistema de cogeneración de calor y electricidad y una serie de paneles solares. Además, el mecanismo de reutilización de las aguas residuales del enfriador reduce el impacto negativo sobre el medio ambiente.

El edificio en el que se encuentra K Computer es resistente a terremotos y puede soportar terremotos de magnitud 6 o más en la escala japonesa (0-7). Para acomodar de manera más eficiente los bastidores de equipos y los cables, el tercer piso, de 50 × 60 m, está completamente libre de columnas de carga. Las modernas tecnologías de construcción han permitido garantizar un nivel de carga aceptable (hasta 1 t/m2) para la instalación de estanterías, cuyo peso puede alcanzar las 1,5 toneladas.

SUPERCOMPUTADORA SECOYA

La supercomputadora Sequoia instalada en el Laboratorio Nacional Lawrence Livermore. Lawrence, tiene un rendimiento de 16,32 Pflops y ocupa el segundo lugar en el ranking (ver Figura 2).

Esta supercomputadora petaflop, desarrollada por IBM sobre la base de Blue Gene/Q, fue creada para la Administración Nacional de Seguridad Nuclear (NNSA) de Estados Unidos como parte del programa de Computación y Simulación Avanzada.

El sistema consta de 96 racks y 98.304 nodos de cómputo (1024 nodos por rack). Cada nodo incluye un procesador PowerPC A2 de 16 núcleos y 16 GB de RAM DDR3. En total se utilizan 1.572.864 núcleos de procesador y 1,6 PB de memoria. Los nodos están conectados entre sí según la topología del "toro de cinco dimensiones". El área que ocupa el sistema es de 280 m2. El consumo total de energía es de 7,9 MW.

La supercomputadora Sequoia fue la primera en el mundo en realizar cálculos científicos que requirieron más de 10 Pflops de potencia informática. Así, el sistema de simulación cosmológica HACC requirió alrededor de 14 Pflops cuando se ejecutó en el modo de 3,6 billones de partículas, y cuando se ejecutó el código del proyecto Cardiod para simular la electrofisiología del corazón humano, el rendimiento alcanzó casi 12 Pflops.

SUPERCOMPUTADORA TITAN

La supercomputadora Titan, instalada en el Laboratorio Nacional de Oak Ridge (ORNL) en Estados Unidos, fue reconocida como la supercomputadora más rápida del mundo. En las pruebas comparativas de Linpack, su rendimiento fue de 17,59 Pflops.

Titan implementa una arquitectura híbrida CPU-GPU (ver Figura 3). El sistema consta de 18.688 nodos, cada uno equipado con un procesador AMD Opteron de 16 núcleos y un acelerador de gráficos Nvidia Tesla K20X. Se utilizan un total de 560.640 procesadores. Titan es una actualización de la supercomputadora Jaguar operada anteriormente por ORNL y ocupa los mismos gabinetes de servidores (área total de 404 m2).

La capacidad de utilizar los sistemas de energía y refrigeración existentes ahorró aproximadamente $20 millones durante la construcción. El consumo de energía del superordenador es de 8,2 MW, 1,2 MW más que el del Jaguar, mientras que su rendimiento en operaciones de punto flotante es casi 10 veces mayor.

Titan se utilizará principalmente para realizar investigaciones en ciencia de materiales y energía nuclear, así como investigaciones relacionadas con la mejora de la eficiencia de los motores de combustión interna. Además, se utilizará para modelar el cambio climático y analizar posibles estrategias para abordar sus impactos negativos.

LA SUPERCOMPUTADORA "MÁS VERDE"

Además de la calificación Top500, destinada a identificar el sistema de mayor rendimiento, existe una calificación Green500, que reconoce las supercomputadoras "más ecológicas". Aquí se toma como base el indicador de eficiencia energética (Mflops/W). Por el momento (la última publicación de la clasificación es de noviembre de 2012), el líder del Green500 es la supercomputadora Beacon (lugar 253 en el Top500). Su indicador de eficiencia energética es de 2499 Mflops/W.

Beacon funciona con coprocesadores Intel Xeon Phi 5110P y procesadores Intel Xeon E5-2670, por lo que el rendimiento máximo puede alcanzar los 112.200 Gflops con un consumo total de energía de 44,9 kW. Los coprocesadores Xeon Phi 5110P proporcionan un alto rendimiento con un bajo consumo de energía. Cada coprocesador tiene 1 teraflops de potencia (doble precisión) y admite hasta 8 GB de memoria GDDR5 con ancho de banda de 320 Gbps.

El sistema de refrigeración pasivo del Xeon Phi 5110P tiene un TDP de 225 W, ideal para servidores de alta densidad.

SUPERCOMPUTADORA EURORA

Sin embargo, en febrero de 2013, surgieron informes de que la supercomputadora Eurora, ubicada en Bolonia (Italia), superó a Beacon en eficiencia energética (3150 Mflops/vatio versus 2499 Mflops/W).

Eurora está construida por Eurotech y consta de 64 nodos, cada uno de los cuales incluye dos procesadores Intel Xeon E5-2687W, dos aceleradores GPU Nvidia Tesla K20 y otro hardware. Las dimensiones de dicho nodo no superan las dimensiones de una computadora portátil, pero su rendimiento es 30 veces mayor y el consumo de energía es 15 veces menor.

La alta eficiencia energética en Eurora se logra mediante el uso de varias tecnologías. La refrigeración por agua es la que más contribuye. Por lo tanto, cada nodo de supercomputadora es una especie de sándwich: el equipo central en la parte inferior, un intercambiador de calor de agua en el medio y otra unidad electrónica en la parte superior (ver Figura 4).

Estos altos resultados se logran gracias al uso de materiales con buena conductividad térmica, así como a una extensa red de canales de refrigeración. Al instalar un nuevo módulo informático, sus canales se combinan con los canales del sistema de refrigeración, lo que permite cambiar la configuración de la supercomputadora según las necesidades específicas. Según los fabricantes, se elimina el riesgo de fugas.

Los elementos del superordenador Eurora funcionan con fuentes de corriente continua de 48 voltios, cuya introducción ha reducido el número de conversiones de energía. Finalmente, el agua tibia extraída de los equipos informáticos se puede utilizar para otros fines.

CONCLUSIÓN

La industria de las supercomputadoras está desarrollando activamente y estableciendo cada vez más récords de rendimiento y eficiencia energética. Cabe señalar que es en esta industria, como en ningún otro lugar, donde hoy en día se utilizan ampliamente las tecnologías de refrigeración líquida y modelado 3D, ya que los especialistas se enfrentan a la tarea de montar un sistema informático superpotente que sea capaz de funcionar en un Volumen limitado con mínimas pérdidas de energía.

Yuri Jomutsky- Ingeniero Jefe de Proyectos en I-Teco. Se le puede contactar en: [correo electrónico protegido]. El artículo utiliza materiales del portal de Internet sobre centros de datos "www.AboutDC.ru - Soluciones para centros de datos".

Tiempo de leer: 2 minutos.

Hasta ahora, la humanidad no ha llegado a los vertederos de Marte, no ha inventado el elixir de la juventud, los coches todavía no pueden volar por encima de la tierra, pero hay varias áreas en las que todavía lo hemos logrado. La creación de potentes superordenadores es uno de esos ámbitos. Para evaluar la potencia de una computadora, es necesario determinar qué parámetro clave es responsable de esta característica. Este parámetro es flops, un valor que muestra cuántas operaciones puede realizar una PC en un segundo. Sobre la base de este valor, nuestra revista Big Rating clasificó las computadoras más potentes del mundo en 2017.

Potencia de supercomputadora: 8,1 Pflop/seg.

Esta computadora almacena datos que son responsables de la seguridad de la estructura militar de los Estados Unidos y también es responsable del estado de preparación para un ataque nuclear, si fuera necesario. Hace dos años, esta máquina era una de las más poderosas y caras del mundo, pero hoy Trinity ha sido reemplazada por dispositivos más nuevos. El sistema que utiliza esta supercomputadora es Cray XC40, gracias al cual el dispositivo puede "realizar" tal cantidad de operaciones por segundo.

mira

Potencia de supercomputadora: 8,6 Pflop/seg.

Cray ha lanzado otra supercomputadora, Mira. El Departamento de Energía de Estados Unidos ordenó la producción de esta máquina para coordinar su trabajo. El ámbito en el que opera Mira es el de la industria y el desarrollo del potencial de investigación. Esta supercomputadora puede calcular 8,6 petaflops por segundo.

Potencia de supercomputadora: 10,5 Pflop/seg.

El nombre de este dispositivo describe inmediatamente su potencia; la palabra japonesa “kei” (K) significa diez mil billones. Esta cifra describe casi exactamente su capacidad de producción: 10,5 petaflops. Lo más destacado de esta supercomputadora es su sistema de refrigeración. Se utiliza refrigeración por agua, lo que reduce el consumo de reservas de energía y reduce la velocidad de montaje.

Potencia de supercomputadora: 13,6 Pflop/seg.

Fujitsu, una empresa del País del Sol Naciente, no dejó de trabajar, después de haber lanzado la supercomputadora K Computer, inmediatamente comenzó un nuevo proyecto. Este proyecto fue la supercomputadora Oakforest-Pacs, que se clasifica como una nueva generación de máquinas (generación Knights Landing). Su desarrollo fue encargado por la Universidad de Tokio y la Universidad de Tsukuba. Según el plan original, se suponía que la memoria del dispositivo sería de 900 TB y el rendimiento de Oakforest-Pacs sería de 25 mil billones de operaciones por segundo. Pero debido a la falta de financiación, muchos aspectos no se concretaron, por lo que la potencia del superordenador fue de 13,6 petaflops por segundo.

Cori

Potencia de supercomputadora: 14 Pflop/seg.

El año pasado, Cori ocupaba el sexto lugar en la lista de las supercomputadoras más potentes del mundo, pero con la increíble velocidad del desarrollo tecnológico, perdió una posición. Esta supercomputadora está ubicada en Estados Unidos, en el Laboratorio Nacional Lawrence Berkeley. Científicos suizos, con la ayuda de Cori, lograron desarrollar una máquina de computación cuántica de 45 qubits. La capacidad de producción de este superordenador es de 14 petaflops por segundo.

Potencia de supercomputadora: 17,2 Pflop/seg.

Los científicos de todo el mundo han estado de acuerdo durante mucho tiempo en que Sequoia es la supercomputadora más rápida del planeta. Y no es así, porque es capaz de realizar cálculos aritméticos que tardarían 6.700 millones de personas en 320 años, en un segundo. El tamaño de la máquina es realmente sorprendente: ocupa más de 390 metros cuadrados e incluye 96 bastidores. Dieciséis mil billones de operaciones o lo que es lo mismo 17,2 petaflops es la capacidad de producción de este superordenador.

Titán

Potencia de supercomputadora: 17,6 Pflop/seg.

Además de ser uno de los superordenadores más rápidos del planeta, también es muy eficiente energéticamente. El indicador de eficiencia energética es de 2142,77 megaflops por vatio de energía necesaria para el consumo. La razón de este bajo consumo de energía es el acelerador Nvidia, que proporciona hasta el 90% de la energía necesaria para la informática. Además, el acelerador de Nvidia ha reducido notablemente la superficie ocupada por este superordenador, que ahora sólo necesita 404 metros cuadrados.

Potencia de supercomputadora: 19,6 Pflop/seg.

El primer lanzamiento de este dispositivo tuvo lugar en 2013, en Suiza, en la ciudad de Lugano. Ahora la geolocalización de esta supercomputadora es el Centro Nacional Suizo de Supercomputación. Piz Daint es una combinación de las mejores características de las máquinas anteriores, tiene una eficiencia energética muy alta y es muy rápida en los cálculos. Sólo una característica deja mucho que desear: las dimensiones de este superordenador: ocupa 28 bastidores enormes. Piz Daint es capaz de generar 19,6 petaflops de potencia informática por segundo.

Potencia de supercomputadora: 33,9 Pflop/seg.

Este dispositivo tiene el romántico nombre de Tianhe, que en chino significa “Vía Láctea”. Tianhe-2 era la computadora más rápida en la lista de las 500 supercomputadoras más rápidas y poderosas. Puede calcular 2507 operaciones aritméticas, que en petaflops es 33,9 Pflops/seg. La especialización en la que se utiliza esta computadora es la construcción, calcula operaciones relacionadas con la construcción y tendido de carreteras. Desde su primer lanzamiento en 2013, este ordenador no ha perdido su posición en las listas, lo que demuestra que es una de las mejores máquinas del mundo.

Potencia de supercomputadora: 93 Pflop/seg.

Sunway TaihuLight es la supercomputadora más rápida del mundo; además de su enorme velocidad de computación, también es famosa por sus enormes dimensiones: ocupa un área de más de 1000 metros cuadrados. La conferencia internacional de 2016, que tuvo lugar en Alemania, reconoció a este superordenador como el más rápido del mundo y todavía no tiene un competidor serio en este sentido. ¡Su velocidad es tres veces mayor que la del Tianhe-2, el superordenador más cercano en este sentido!

El progreso tecnológico no se detiene, se desarrolla a una velocidad cósmica, afecta muchos aspectos de la vida humana y tiene muchos aspectos positivos y negativos. Actualmente, los seres humanos tienen a su disposición diversos tipos de tecnología: ordenadores, robots e instrumentos. Pero el objetivo principal de cualquier equipo es simplificar la vida de una persona; la tecnología no debe convertirse en un entretenimiento sin sentido que sólo le haga perder el tiempo.



Compartir