I supercomputer nel mondo moderno. Iscriviti alle notizie

Negli ultimi anni, le società di progettazione e produzione di computer hanno lavorato instancabilmente. Di conseguenza, la quantità di tecnologia nel mondo sta crescendo in modo esponenziale.

I computer più potenti

Proprio di recente, il mondo non conosceva DirectX10 e la grafica di FarCry o NFS Underground 2 sembrava essere l'apice delle capacità del computer. Un tempo un disco in grado di memorizzare 600 megabyte di informazioni sembrava un miracolo della tecnologia, ma ora le schede di memoria da terabyte sono disponibili gratuitamente.

Nel campo dei supercomputer accade più o meno la stessa cosa. Nel 1993, il professore dell'Università del Tennessee Jack Dongarra ebbe l'idea di creare una classifica dei computer più potenti del mondo. Da allora questa lista, chiamata TOP500, viene aggiornata due volte l'anno: a giugno e novembre.

Il tempo passa e i leader nelle classifiche dei supercomputer dei primi anni '90 sono già empiamente obsoleti anche per gli standard dei normali utenti di PC. Quindi, il primo nel 1993 fu il CM-5/1024, assemblato da Thinking Machines: processori 1024 con una frequenza di clock di 32 MHz, una velocità di elaborazione di 59,7 gigaflop - leggermente più veloce di un normale PC a 8 core sotto la scrivania. Qual è il miglior computer oggi?


Sunway TaihuLuce

Solo cinque anni fa la palma in termini di potenza era detenuta dai supercomputer fabbricati negli USA. Nel 2013, gli scienziati cinesi hanno preso la leadership e, a quanto pare, non hanno intenzione di rinunciarvi.

Al momento, il computer più potente del mondo è considerato il Sunway TaihuLight (tradotto come "Il potere della luce divina del lago Taihu"), una macchina grandiosa con una velocità di calcolo di 93 petaflop (velocità massima - 125,43 petaflop). Questo è 2,5 volte più potente del precedente detentore del record: il supercomputer Tianhe-2, considerato il più potente fino a giugno 2016.


Sunway Taihulight ha 10,5 milioni di core integrati (40.960 processori, ciascuno con 256 core di elaborazione e 4 core di controllo).

Ecco come appare il computer più potente del 2016

Tutte le apparecchiature sono state sviluppate e prodotte in Cina, mentre i processori del precedente computer più potente sono stati prodotti dalla società americana Intel. Il costo di Sunway TaihuLight è stimato a 270 milioni di dollari. Il supercomputer si trova presso il National Supercomputer Center della contea di Wuxi.

Detentori del record degli anni precedenti

Fino a giugno 2016 (e l'elenco TOP500 viene aggiornato ogni giugno e novembre), il computer più potente e veloce era la supermacchina Tianhe-2 (tradotto dal cinese come "Via Lattea"), sviluppata in Cina presso l'Università di Scienza e Tecnologia della Difesa di Changsha con l'aiuto della compagnia Inspur.


La potenza di Tianhe-2 fornisce 2507 trilioni di operazioni al secondo (33,86 petaflop al secondo), la prestazione di picco è di 54,9 petaflop. Lo sviluppo cinese è in cima a questa classifica sin dal suo lancio nel 2013: una cifra incredibilmente impressionante!

Supercomputer Tianhe-2

Le caratteristiche di Tianhe-2 sono le seguenti: 16mila nodi, 32mila processori Intel Xeon E5-2692 a 12 core e 48mila acceleratori Intel Xeon Phi 31S1P a 57 core, il che significa 3.120.000 core in totale; 256mila stick RAM DDR3 da 4 GB ciascuno e 176.000 stick GDDR5 da 8 GB - 2.432.000 GB di RAM in totale. La capacità del disco rigido è superiore a 13 milioni di GB. Tuttavia, non potrai giocarci: è destinato esclusivamente all'informatica e Milky Way 2 non ha una scheda video installata. In particolare aiuta nei calcoli per la posa delle metropolitane e lo sviluppo urbano.

Giaguaro

Per molto tempo il supercomputer americano Jaguar è ​​stato in cima alla classifica. In cosa si differenzia dagli altri e quali sono i suoi vantaggi tecnici?


Il supercomputer, chiamato Jaguar, è costituito da un gran numero di celle indipendenti divise in due sezioni: XT4 e XT5. L'ultima sezione contiene esattamente 18688 celle di calcolo. Ogni cella contiene due processori AMD Opteron 2356 a sei core con una frequenza di 2,3 GHz, 16 GB di RAM DDR2 e un router SeaStar 2+. Basterebbe anche una sola cella di questa sezione per creare il computer da gioco più potente. La sezione contiene solo 149.504 core di calcolo, un'enorme quantità di RAM - più di 300 TB, nonché prestazioni di 1,38 petaflop e più di 6 petabyte di spazio su disco.

Costruire un mostro informatico

La partizione XT4 contiene 7832 celle. Le loro caratteristiche sono più modeste di quelle della precedente sezione XT5: ogni cella contiene un processore a sei core con una frequenza di 2,1 GHz, 8 GB di RAM e un router SeaStar 2. In totale, la sezione ha 31.328 core di calcolo e più di 62 TB di memoria, nonché prestazioni di picco di 263 TFLOPS e oltre 600 TB di spazio su disco. Il supercomputer Jaguar funziona con il proprio sistema operativo, Cray Linux Environment.

Un altro computer respira nella parte posteriore della Jaguar, frutto dell'ingegno di IBM - Roadrunner. Il mostro informatico più potente è in grado di calcolare fino a 1.000.000.000.000 di operazioni al secondo. È stato sviluppato appositamente per l'Amministrazione nazionale per la sicurezza nucleare del Dipartimento dell'Energia a Los Alamos. Con l'aiuto di questo supercomputer progettarono di monitorare il funzionamento di tutti gli impianti nucleari situati negli Stati Uniti.


La velocità di elaborazione massima del Road Runner è di circa 1,5 petaflop. Parliamo di una capacità totale di 3.456 server tri-blade originali, ciascuno dei quali è in grado di eseguire circa 400 miliardi di operazioni al secondo (ovvero 400 gigaflop). All'interno del Roadrunner ci sono circa 20mila processori dual-core ad alte prestazioni: 12.960 Cell Broadband Engine e 6948 AMD Opteron, nati da un'idea della stessa IBM. Un supercomputer di questo tipo ha una memoria di sistema di 80 terabyte.

Ma quanto spazio occupa questo miracolo della tecnologia? La macchina è ubicata su un'area di 560 mq. E tutta l’attrezzatura del dipartimento è racchiusa in server con l’architettura originale. Tutta l'attrezzatura pesa circa 23 tonnellate. Quindi, per trasportarlo, il personale dell’Amministrazione nazionale per la sicurezza nucleare avrà bisogno di almeno 21 grandi trattori.

Qualche parola su cosa sono i petaflop. Un petaflop equivale approssimativamente alla potenza totale di 100mila laptop moderni. Se provi a immaginare, possono asfaltare una strada lunga quasi due chilometri e mezzo. Un altro paragone accessibile: entro 46 anni, l’intera popolazione del pianeta utilizzerà calcolatrici per fare calcoli che Roadrunner può fare in un giorno. Riesci a immaginare quanto poco avrà bisogno di Sunway TaihuLigh, il leader della nostra classifica?

Titano

Nel 2012, l'Oak Ridge National Laboratory del Dipartimento dell'Energia degli Stati Uniti ha lanciato il supercomputer Titan, che ha una potenza nominale di 20 petaflop: in altre parole, può eseguire un quadrilione di operazioni in virgola mobile in un secondo.


Titan è stato sviluppato da Cray. Oltre a Titano, negli ultimi anni gli specialisti americani hanno sviluppato altri due supercomputer. Uno di loro - Mira - è destinato alle esigenze di ricerca industriale e scientifica e, con l'aiuto dell'altro - Sequoia, simulano test sulle armi nucleari. IBM Corporation è dietro tutti questi sviluppi.

Il computer più potente in Russia

Purtroppo, lo sviluppo russo “Lomonosov-2”, riconosciuto come il computer più potente in Russia, è solo al 41° posto nella TOP500 (a giugno 2016). Ha sede presso il Centro di calcolo scientifico dell'Università statale di Mosca. La potenza del supercomputer domestico è di 1.849 petaflop, la potenza di picco è di circa 2,5 petaflop. Numero di core: 42.688.



Iscriviti al nostro canale in Yandex.Zen

Titano del supercomputer

Le persone ancora non volano su Marte, il cancro non è stato ancora curato e non ci siamo ancora sbarazzati della dipendenza dal petrolio. Eppure ci sono aree in cui l’umanità ha fatto progressi incredibili negli ultimi decenni. La potenza di calcolo dei computer è solo uno di questi.

Due volte all'anno gli esperti del Lawrence Berkeley National Laboratory e dell'Università del Tennessee pubblicano la Top 500, che offre un elenco dei supercomputer più potenti del mondo.

Guardando un po' avanti, vi suggeriamo di assaggiare questi numeri in anticipo: la produttività dei rappresentanti della top ten si misura in decine di quadrilioni di flop. Per fare un confronto: l'ENIAC, il primo computer della storia, aveva una potenza di 500 flop; Oggi, il personal computer medio ha centinaia di gigaflop (miliardi di flop), l’iPhone 6 ha circa 172 gigaflop e la PS4 ha 1,84 teraflop (trilioni di flop).

Armato dell'ultima Top 500 di novembre 2014, Naked Science ha deciso di capire quali sono i 10 supercomputer più potenti al mondo e quali problemi richiedono una potenza di calcolo così straordinaria per essere risolti.

  • Ubicazione: Stati Uniti
  • Prestazioni: 3,57 petaflop
  • Prestazioni massime teoriche: 6,13 petaflop
  • Potenza: 1,4 MW

Come quasi tutti i supercomputer moderni, compresi ciascuno di quelli presentati in questo articolo, CS-Storm è costituito da molti processori uniti in un'unica rete di computer basata sul principio di un'architettura massivamente parallela. In realtà, questo sistema è costituito da numerosi rack (“armadi”) con elettronica (nodi costituiti da processori multi-core), che formano interi corridoi.

Cray CS-Storm è un'intera serie di cluster di supercomputer, ma uno di questi si distingue ancora dagli altri. Nello specifico si tratta del misterioso CS-Storm, utilizzato dal governo degli Stati Uniti per scopi sconosciuti e in un luogo sconosciuto.

Ciò che è noto è che i funzionari americani hanno acquistato un CS-Storm estremamente efficiente in termini di consumo energetico (2386 megaflop per 1 Watt) con un numero totale di core di quasi 79mila dalla società americana Cray.

Il sito web del produttore afferma tuttavia che i cluster CS-Storm sono adatti per il calcolo ad alte prestazioni nei settori della sicurezza informatica, dell'intelligenza geospaziale, del riconoscimento di modelli, dell'elaborazione dei dati sismici, del rendering e dell'apprendimento automatico. Da qualche parte in questa serie, l'uso del CS-Storm governativo probabilmente si è stabilizzato.

CRAY CS-STORM

9. Vulcano – Gene blu/Q

  • Ubicazione: Stati Uniti
  • Prestazioni: 4,29 petaflop
  • Prestazioni massime teoriche: 5,03 petaflop
  • Potenza: 1,9 MW

“Vulcan” è stato sviluppato dalla società americana IBM, appartiene alla famiglia Blue Gene e si trova presso il Lawrence Livermore National Laboratory. Il supercomputer, di proprietà del Dipartimento dell'Energia degli Stati Uniti, è composto da 24 rack. Il cluster ha iniziato a funzionare nel 2013.

A differenza del già citato CS-Storm, l'ambito di applicazione di Vulcan è ben noto: varie ricerche scientifiche, anche nel campo dell'energia, come la modellazione di fenomeni naturali e l'analisi di grandi quantità di dati.

Vari gruppi scientifici e aziende possono accedere al supercomputer presentando una domanda all'High Performance Computing Innovation Center (HPC Innovation Center), con sede presso lo stesso Livermore National Laboratory.

Il supercomputer Vulcano

8. Juqueen – Gene blu/Q

  • Luogo: Germania
  • Prestazioni: 5 petaflop
  • Prestazioni massime teoriche: 5,87 petaflop
  • Potenza: 2,3 MW

Dal suo lancio nel 2012, Juqueen è stato il secondo supercomputer più potente in Europa e il primo in Germania. Come Vulcan, questo cluster di supercomputer è stato sviluppato da IBM come parte del progetto Blue Gene e appartiene alla stessa generazione Q.

Il supercomputer si trova in uno dei più grandi centri di ricerca d'Europa a Jülich. Viene utilizzato di conseguenza: per il calcolo ad alte prestazioni in varie ricerche scientifiche.

Supercomputer Juqueen

7. Fuga precipitosa – PowerEdge C8220

  • Ubicazione: Stati Uniti
  • Prestazioni: 5,16 petaflop
  • Prestazioni massime teoriche: 8,52 petaflop
  • Potenza: 4,5 MW

Situato in Texas, Stampede è l'unico cluster nella top ten della Top 500 sviluppato dalla società americana Dell. Il supercomputer è composto da 160 rack.

Questo supercomputer è il più potente al mondo tra quelli utilizzati esclusivamente per scopi di ricerca. L'accesso alle strutture di Stampede è aperto ai gruppi scientifici. Il cluster viene utilizzato in un'ampia gamma di campi scientifici: dalla tomografia precisa del cervello umano e la previsione dei terremoti all'identificazione di modelli nella musica e nelle strutture linguistiche.

Fuga precipitosa del supercomputer

6. Piz Daint – Cray XC30

  • Luogo: Svizzera
  • Prestazioni: 6,27 petaflop
  • Prestazioni massime teoriche: 7,78 petaflop
  • Potenza: 2,3 MW

Il Centro nazionale svizzero di supercalcolo (CSCS) vanta il supercomputer più potente d’Europa. Il Piz Daint, dal nome della montagna alpina, è stato sviluppato da Cray e appartiene alla famiglia XC30, all'interno della quale è il più produttivo.

Piz Daint viene utilizzato per vari scopi di ricerca, come le simulazioni al computer nel campo della fisica delle alte energie.

Supercomputer Piz Daint

5. Mira – Gene blu/Q

  • Ubicazione: Stati Uniti
  • Prestazioni: 8,56 petaflop
  • Prestazioni massime teoriche: 10,06 petaflop
  • Potenza: 3,9 MW

Il supercomputer Mira è stato sviluppato da IBM come parte del progetto Blue Gene nel 2012. La divisione High Performance Computing dell'Argonne National Laboratory, che ospita il cluster, è stata creata con finanziamenti governativi. Si ritiene che l’aumento dell’interesse per la tecnologia dei supercalcoli da parte di Washington tra la fine degli anni 2000 e l’inizio degli anni 2010 sia dovuto alla rivalità con la Cina in questo settore.

Situato su 48 rack, Mira viene utilizzato per scopi scientifici. Ad esempio, il supercomputer viene utilizzato per la modellazione climatica e sismica, che consente di ottenere dati più accurati sulla previsione dei terremoti e dei cambiamenti climatici.

Il supercomputer Mira

4. KComputer

  • Luogo: Giappone
  • Prestazioni: 10,51 petaflop
  • Prestazioni massime teoriche: 11,28 petaflop
  • Potenza: 12,6 MW

Sviluppato da Fujitsu e situato presso l'Istituto di ricerca fisico-chimica di Kobe, il K Computer è l'unico supercomputer giapponese a figurare nella top ten della Top 500.

Un tempo (giugno 2011), questo cluster ha occupato la prima posizione nella classifica, diventando per un anno il computer più produttivo al mondo. E nel novembre 2011, K Computer è diventata la prima nella storia a raggiungere una potenza superiore a 10 petaflop.

Il supercomputer viene utilizzato in una serie di compiti di ricerca. Ad esempio, per la previsione delle catastrofi naturali (importante per il Giappone a causa della maggiore attività sismica della regione e dell'elevata vulnerabilità del paese in caso di tsunami) e per la modellizzazione computerizzata nel campo della medicina.

Supercomputer K

3. Sequoia – Gene blu/Q

  • Ubicazione: Stati Uniti
  • Prestazioni: 17,17 petaflop
  • Prestazioni massime teoriche: 20,13 petaflop
  • Potenza: 7,8 MW

Il più potente dei quattro supercomputer della famiglia Blue Gene/Q, che figurano nella top ten della classifica, si trova negli Stati Uniti presso il Livermore National Laboratory. IBM ha sviluppato Sequoia per la National Nuclear Security Administration (NNSA), che necessitava di un computer ad alte prestazioni per uno scopo molto specifico: simulare esplosioni nucleari.

Vale la pena ricordare che i veri test nucleari sono stati vietati dal 1963 e la simulazione al computer è una delle opzioni più accettabili per continuare la ricerca in questo settore.

Tuttavia, la potenza del supercomputer è stata utilizzata per risolvere altri problemi molto più nobili. Ad esempio, il cluster è riuscito a stabilire record di prestazioni nella modellazione cosmologica, nonché nella creazione di un modello elettrofisiologico del cuore umano.

Supercomputer Sequoia

2. Titano – Cray XK7

  • Ubicazione: Stati Uniti
  • Prestazioni: 17,59 petaflop
  • Prestazioni massime teoriche: 27,11 petaflop
  • Potenza: 8,2 MW

Il supercomputer più produttivo mai creato in Occidente, nonché il più potente cluster di computer con il marchio Cray, si trova negli Stati Uniti presso l'Oak Ridge National Laboratory. Nonostante il supercomputer a disposizione del Dipartimento dell'Energia degli Stati Uniti sia ufficialmente disponibile per qualsiasi ricerca scientifica, nell'ottobre 2012, quando è stato lanciato Titan, il numero di applicazioni ha superato ogni limite.

Per questo motivo, è stata convocata una commissione speciale presso l'Oak Ridge Laboratory, che ha selezionato solo 6 dei progetti più "avanzati" su 50 domande. Tra questi, ad esempio, la modellazione del comportamento dei neutroni nel cuore di un reattore nucleare, nonché la previsione dei cambiamenti climatici globali per i prossimi 1-5 anni.

Nonostante la sua potenza di calcolo e le dimensioni impressionanti (404 metri quadrati), Titano non durò a lungo sul piedistallo. Appena sei mesi dopo il trionfo del novembre 2012, l'orgoglio americano nel campo dei computer ad alte prestazioni è stato inaspettatamente soppiantato da quello originario dell'Est, superando i precedenti leader della classifica in un modo senza precedenti.

Titano del supercomputer

1. Tianhe-2 / Via Lattea-2

  • Luogo: Cina
  • Prestazioni: 33,86 petaflop
  • Prestazioni massime teoriche: 54,9 petaflop
  • Potenza: 17,6 MW

Dal suo primo lancio, Tianhe-2, o Milky Way-2, è stato il leader della Top-500 per circa due anni. Questo mostro è quasi due volte più potente del n. 2 nella classifica: il supercomputer TITAN.

Sviluppato dall'Università di Scienza e Tecnologia della Difesa dell'Esercito Popolare di Liberazione e dall'Inspur, Tianhe-2 è composto da 16mila nodi con un numero totale di core di 3,12 milioni. La RAM di questa colossale struttura, che occupa 720 metri quadrati, è di 1,4 petabyte e il dispositivo di archiviazione è di 12,4 petabyte.

Milky Way 2 è stato progettato su iniziativa del governo cinese, quindi non sorprende che la sua potenza senza precedenti sembri servire i bisogni dello stato. È stato ufficialmente affermato che il supercomputer è impegnato in varie simulazioni, analizzando enormi quantità di dati e garantendo anche la sicurezza nazionale della Cina.

Considerando la segretezza inerente ai progetti militari cinesi, si può solo immaginare quale tipo di utilizzo riceva di volta in volta la Via Lattea-2 nelle mani dell'esercito cinese.

Supercomputer Tianhe-2

Principale → Storia della tecnologia informatica domestica → Supercomputer

Supercomputer

Andrej Borzenko

I supercomputer sono i computer più veloci. La loro principale differenza rispetto ai mainframe è la seguente: tutte le risorse di un computer di questo tipo sono solitamente finalizzate a risolvere uno o almeno più compiti il ​​più rapidamente possibile, mentre i mainframe, di regola, eseguono un numero abbastanza elevato di compiti che competono tra loro altro. Il rapido sviluppo dell'industria informatica determina la relatività del concetto di base: quello che dieci anni fa poteva essere chiamato supercomputer, oggi non rientra più in questa definizione. Esiste anche una definizione umoristica di supercomputer: è un dispositivo che riduce il problema informatico a un problema di input-output. Tuttavia c’è del vero in questo: spesso l’unico collo di bottiglia in un sistema ad alta velocità sono i dispositivi I/O. Puoi scoprire quali supercomputer attualmente hanno le massime prestazioni dall'elenco ufficiale dei cinquecento sistemi più potenti del mondo: Top500 (http://www.top500.org), che viene pubblicato due volte all'anno.

In qualsiasi computer, tutti i parametri principali sono strettamente correlati. È difficile immaginare un computer universale con prestazioni elevate e scarsa RAM, oppure una RAM enorme e uno spazio su disco ridotto. Per questo motivo i supercomputer attualmente si caratterizzano non solo per le massime prestazioni, ma anche per la massima quantità di RAM e memoria disco. Fornire tali caratteristiche tecniche è piuttosto costoso: il costo dei supercomputer è estremamente elevato. Quali compiti sono così importanti da richiedere sistemi che costano decine o centinaia di milioni di dollari? Di norma, si tratta di problemi informatici scientifici o ingegneristici fondamentali con una vasta gamma di applicazioni, la cui soluzione efficace è possibile solo con la disponibilità di potenti risorse informatiche. Ecco solo alcune aree in cui si presenta questo tipo di problema:

  • previsioni del tempo, del clima e dei cambiamenti globali nell'atmosfera;
  • scienza dei materiali;
  • costruzione di dispositivi a semiconduttore;
  • superconduttività;
  • biologia strutturale;
  • sviluppo di prodotti farmaceutici;
  • genetica umana;
  • cromodinamica quantistica;
  • astronomia;
  • industria automobilistica;
  • compiti di trasporto;
  • idrodinamica e gasdinamica;
  • fusione termonucleare controllata;
  • efficienza dei sistemi di combustione del carburante;
  • esplorazione di petrolio e gas;
  • problemi computazionali nelle scienze oceaniche;
  • riconoscimento e sintesi vocale;
  • riconoscimento delle immagini.

I supercomputer calcolano molto rapidamente grazie non solo all'uso degli elementi più moderni, ma anche a nuove soluzioni nell'architettura del sistema. Il posto principale qui è occupato dal principio dell'elaborazione parallela dei dati, che incarna l'idea dell'esecuzione simultanea (parallela) di più azioni. L'elaborazione parallela ha due tipi: pipeline e parallelismo effettivo. L'essenza dell'elaborazione della pipeline è quella di evidenziare le singole fasi dell'esecuzione di un'operazione generale e ciascuna fase, dopo aver completato il proprio lavoro, passa il risultato a quella successiva, accettando contemporaneamente una nuova porzione di dati di input. Un evidente guadagno in termini di velocità di elaborazione si ottiene combinando operazioni precedentemente distanziate.

Se un determinato dispositivo esegue un'operazione per unità di tempo, eseguirà mille operazioni in mille unità. Se esistono cinque dispositivi identici e indipendenti in grado di funzionare contemporaneamente, un sistema di cinque dispositivi può eseguire le stesse migliaia di operazioni non in mille, ma in duecento unità di tempo. Allo stesso modo, un sistema di N dispositivi eseguirà lo stesso lavoro in 1000/N unità di tempo.

Naturalmente, oggi poche persone sono sorprese dal parallelismo nell'architettura dei computer. Tutti i microprocessori moderni utilizzano una qualche forma di elaborazione parallela, anche all'interno dello stesso chip. Allo stesso tempo, queste stesse idee sono apparse molto tempo fa. Inizialmente, furono implementati nei computer più avanzati, e quindi unici, del loro tempo. In questo caso, un merito speciale va a IBM e Control Data Corporation (CDC). Stiamo parlando di innovazioni come la memoria bit-parallela, l'aritmetica bit-parallela, processori input/output indipendenti, pipeline di comandi, unità funzionali indipendenti dalla pipeline, ecc.

Di solito la parola “supercomputer” è associata ai computer Cray, anche se oggi questo è tutt’altro che vero. Lo sviluppatore e capo progettista del primo supercomputer fu Seymour Cray, una delle figure più leggendarie dell'industria informatica. Nel 1972 lasciò il CDC e fondò la sua società, Cray Research. Il primo supercomputer, CRAY-1, fu sviluppato quattro anni dopo (nel 1976) e aveva un'architettura a pipeline vettoriale con 12 unità funzionali pipeline. Le prestazioni massime del Cray-1 erano di 160 MT/s (tempo di clock di 12,5 ns) e la RAM a 64 bit (che poteva essere espansa fino a 8 MB) aveva un tempo di ciclo di 50 ns. L'innovazione principale è stata, ovviamente, l'introduzione di comandi vettoriali che funzionano con interi array di dati indipendenti e consentono un utilizzo efficiente dei dispositivi funzionali della pipeline.

Durante gli anni '60 e '80, l'attenzione dei leader mondiali nella produzione di supercomputer si concentrò sulla produzione di sistemi informatici in grado di risolvere problemi in virgola mobile su grandi volumi. Tali compiti non mancavano: quasi tutti erano legati alla ricerca nucleare e alla modellazione aerospaziale e venivano svolti nell'interesse militare. Il desiderio di raggiungere la massima prestazione nel minor tempo possibile ha fatto sì che il criterio per valutare la qualità di un sistema non fosse il prezzo, ma la prestazione. Il supercomputer Cray-1, ad esempio, costa a seconda della configurazione dai 4 agli 11 milioni di dollari.

A cavallo degli anni 80-90. La Guerra Fredda finì e gli ordini militari furono sostituiti da quelli commerciali. A quel punto, l’industria aveva fatto passi da gigante nella produzione di processori seriali. Avevano all'incirca la stessa potenza di calcolo di quelli personalizzati, ma erano significativamente più economici. L'utilizzo di componenti standard e di un numero variabile di processori ha permesso di risolvere il problema della scalabilità. Ora, con l’aumento del carico di calcolo, è stato possibile aumentare le prestazioni del supercomputer e dei suoi dispositivi periferici aggiungendo nuovi processori e dispositivi I/O. Così, nel 1990, apparve il supercomputer Intel iPSC/860 con un numero di processori pari a 128, che mostrò una prestazione di 2,6 Gflop nel test LINPACK.

Lo scorso novembre è stata pubblicata la 18esima edizione della lista dei 500 computer più potenti del mondo – Top500. Il leader della classifica resta la IBM Corporation (http://www.ibm.com), che possiede il 32% dei sistemi installati e il 37% della produttività totale. Una notizia interessante è stata l'emergere di Hewlett-Packard al secondo posto in termini di numero di sistemi (30%). Inoltre, poiché tutti questi sistemi sono relativamente piccoli, la loro prestazione totale rappresenta solo il 15% dell’intero elenco. Dopo la fusione con Compaq, si prevede che la nuova società dominerà la lista. Seguono in termini di numero di computer nell'elenco SGI, Cray e Sun Microsystems.

Il supercomputer più potente del mondo era ancora il sistema ASCI White (su cui torneremo più tardi), installato presso il Livermore Laboratory (USA) e che mostrava una prestazione di 7,2 Tflop nel test LINPACK (58% della prestazione di picco). Al secondo posto si è classificato il sistema Compaq AlphaServer SC installato presso il Pittsburgh Supercomputing Center con una prestazione di 4 Tflop. Il sistema Cray T3E chiude la lista con prestazioni LINPACK di 94 Gflops.

Vale la pena notare che l'elenco comprendeva già 16 sistemi con una potenza superiore a 1 teraflop, metà dei quali installati da IBM. Il numero di sistemi che sono cluster di piccoli blocchi SMP è in costante aumento: ora nell'elenco sono presenti 43 sistemi di questo tipo. Tuttavia, la maggior parte dell'elenco riguarda ancora sistemi massivamente paralleli (50%), seguiti da cluster costituiti da grandi sistemi SMP (29%).

Tipi di architetture

Il parametro principale per classificare i computer paralleli è la presenza di memoria condivisa o distribuita. Qualcosa nel mezzo sono le architetture in cui la memoria è distribuita fisicamente ma condivisa logicamente. Da un punto di vista hardware, si suggeriscono due schemi principali per implementare sistemi paralleli. Il primo è costituito da diversi sistemi separati, con memoria locale e processori, che interagiscono in un ambiente inviando messaggi. Il secondo riguarda i sistemi che interagiscono attraverso la memoria condivisa. Senza entrare per ora nei dettagli tecnici, diciamo qualche parola sui tipi di architetture dei moderni supercomputer.

L’idea dei sistemi massivamente paralleli con memoria distribuita (Massively Parallel Processing, MPP) è abbastanza semplice. A questo scopo vengono utilizzati normali microprocessori, ciascuno dei quali è dotato di una propria memoria locale e collegato tramite un qualche tipo di mezzo di commutazione. I vantaggi di una tale architettura sono numerosi. Se hai bisogno di prestazioni elevate, puoi aggiungere più processori e se le finanze sono limitate o la potenza di calcolo richiesta è nota in anticipo, è facile selezionare la configurazione ottimale. Tuttavia, l’MPP presenta anche degli svantaggi. Il fatto è che l'interazione tra i processori è molto più lenta dell'elaborazione dei dati da parte dei processori stessi.

Nei computer paralleli con memoria condivisa, tutta la RAM è condivisa tra diversi processori identici. Questo rimuove i problemi della lezione precedente, ma ne aggiunge di nuovi. Il fatto è che il numero di processori con accesso alla memoria condivisa non può essere aumentato per ragioni puramente tecniche.

Le caratteristiche principali dei computer a pipeline vettoriale sono, ovviamente, le unità funzionali della pipeline e un insieme di istruzioni vettoriali. A differenza dell'approccio tradizionale, i comandi vettoriali operano su interi array di dati indipendenti, consentendo un caricamento efficiente delle pipeline disponibili.

L'ultima direzione, in senso stretto, non è indipendente, ma piuttosto una combinazione delle tre precedenti. Un nodo di calcolo è formato da più processori (tradizionali o vector-pipeline) e dalla loro memoria comune. Se la potenza di calcolo ottenuta non è sufficiente, diversi nodi vengono combinati con canali ad alta velocità. Come sapete, tale architettura si chiama cluster.

Sistemi MPP

I sistemi scalabili massivamente paralleli sono progettati per risolvere problemi applicativi che richiedono una grande quantità di calcolo ed elaborazione di dati. Diamo un'occhiata più da vicino a loro. Di norma, sono costituiti da nodi informatici omogenei, tra cui:

  • una o più unità centrali di elaborazione;
  • memoria locale (non è possibile l'accesso diretto alla memoria di altri nodi);
  • processore di comunicazione o adattatore di rete;
  • a volte dischi rigidi e/o altri dispositivi di input/output.

Inoltre, è possibile aggiungere al sistema speciali nodi I/O e nodi di controllo. Sono tutti collegati tramite qualche mezzo di comunicazione (rete ad alta velocità, switch, ecc.). Per quanto riguarda il sistema operativo, ci sono due opzioni. Nel primo caso, un sistema operativo completo viene eseguito solo sulla macchina di controllo, mentre ciascun nodo esegue una versione notevolmente ridotta del sistema operativo, fornendo solo il funzionamento del ramo dell'applicazione parallela in esso situato. In un altro caso, ogni nodo esegue un sistema operativo simile a UNIX a tutti gli effetti.

Il numero di processori nei sistemi di memoria distribuita è teoricamente illimitato. Utilizzando tali architetture è possibile costruire sistemi scalabili le cui prestazioni aumentano linearmente con il numero di processori. A proposito, il termine stesso "sistemi massivamente paralleli" viene solitamente utilizzato per riferirsi a computer scalabili con un gran numero (decine e centinaia) di nodi. La scalabilità di un sistema informatico è necessaria per velocizzare proporzionalmente i calcoli, ma, ahimè, non è sufficiente. Per ottenere un guadagno adeguato nella risoluzione di un problema è necessario anche un algoritmo scalabile in grado di caricare tutti i processori di un supercomputer con calcoli utili.

Ricordiamo che esistono due modelli di esecuzione del programma su sistemi multiprocessore: SIMD (flusso di istruzioni singolo - flussi di dati multipli) e MIMD (flussi di istruzioni multipli - flussi di dati multipli). Il primo presuppone che tutti i processori eseguano lo stesso comando, ma ciascuno sui propri dati. Nella seconda, ciascun processore elabora il proprio flusso di comandi.

Nei sistemi di memoria distribuita, per trasferire informazioni da processore a processore, è necessario un meccanismo per il passaggio dei messaggi su una rete che collega i nodi di elaborazione. Per astrarre dai dettagli del funzionamento delle apparecchiature e dei programmi di comunicazione ad alto livello, vengono solitamente utilizzate le librerie di scambio di messaggi.

Supercomputer Intel

Intel Corporation (http://www.intel.com) è ben nota nel mondo dei supercomputer. I suoi computer multiprocessore Paragon a memoria distribuita sono diventati classici quanto i computer a pipeline vettoriale di Cray Research.

Intel Paragon utilizza cinque processori i860 XP con una frequenza di clock di 50 MHz in un nodo. A volte in un nodo vengono posizionati processori di diverso tipo: scalare, vettoriale e di comunicazione. Quest'ultimo serve a sollevare il processore principale dall'esecuzione di operazioni legate alla trasmissione dei messaggi.

La caratteristica più significativa della nuova architettura parallela è il tipo di apparecchiatura di comunicazione. Da questo dipendono i due indicatori più importanti del funzionamento di un supercomputer: la velocità di trasferimento dei dati tra i processori e il sovraccarico derivante dalla trasmissione di un messaggio.

L'interconnessione è progettata per fornire velocità di messaggistica elevate con una latenza minima. Fornisce la connessione di più di mille nodi eterogenei lungo una topologia reticolare rettangolare bidimensionale. Tuttavia, per la maggior parte dello sviluppo di applicazioni, qualsiasi nodo può essere considerato direttamente connesso a tutti gli altri nodi. L'interconnessione è scalabile: il suo throughput aumenta con il numero di nodi. Durante la progettazione, gli sviluppatori hanno cercato di ridurre al minimo la partecipazione alla trasmissione dei messaggi da parte dei processori che eseguono i processi utente. A questo scopo sono stati introdotti speciali processori di elaborazione dei messaggi, che si trovano sulla scheda del nodo e sono responsabili dell'elaborazione del protocollo di messaggistica. Di conseguenza, i principali processori dei nodi non vengono distratti dalla risoluzione del problema. In particolare non vi è alcun passaggio costoso da un compito all'altro e la soluzione dei problemi applicati avviene parallelamente allo scambio di messaggi.

La trasmissione vera e propria dei messaggi viene effettuata da un sistema di routing basato sui componenti del router dei nodi della rete (Mesh Router Components, MRC). Per l’accesso MRC di un dato nodo alla sua memoria, il nodo dispone anche di uno speciale controller di rete di interfaccia, che è un VLSI personalizzato che fornisce la trasmissione simultanea da e verso la memoria del nodo, oltre a monitorare gli errori durante la trasmissione dei messaggi.

Il design modulare di Intel Paragon non si limita a supportare la scalabilità. Ci permette di contare sul fatto che questa architettura servirà da base per nuovi computer basati su altri microprocessori o che utilizzano nuove tecnologie di messaggistica. La scalabilità si basa anche sul bilanciamento dei vari blocchi di un supercomputer a vari livelli; in caso contrario, all'aumentare del numero di nodi, potrebbe apparire un collo di bottiglia da qualche parte nel sistema. Pertanto, la velocità e la capacità di memoria dei nodi sono bilanciate con la larghezza di banda e la latenza dell'interconnessione e le prestazioni dei processori all'interno dei nodi sono bilanciate con la larghezza di banda della memoria cache e della RAM, ecc.

Fino a poco tempo fa, uno dei computer più veloci era Intel ASCI Red, nato da un'idea dell'Accelerated Strategic Computing Initiative ASCI (Accelerated Strategic Computing Initiative). Partecipano a questo programma i tre maggiori laboratori nazionali statunitensi (Livermore, Los Alamos e Sandia). Costruito per il Dipartimento dell'Energia degli Stati Uniti nel 1997, ASCI Red combina 9152 processori Pentium Pro, ha 600 GB di RAM totale e una prestazione totale di 1800 miliardi di operazioni al secondo.

Supercomputer IBM

Quando i sistemi universali con architettura parallela scalabile SP (Scalable POWER parallel) della IBM Corporation (http://www.ibm.com) sono apparsi sul mercato dei computer, hanno rapidamente guadagnato popolarità. Oggi, tali sistemi operano in una varietà di aree di applicazione, come la chimica computazionale, l’analisi degli incidenti, la progettazione di circuiti elettronici, l’analisi sismica, la modellazione dei giacimenti, il supporto decisionale, l’analisi dei dati e l’elaborazione delle transazioni online. Il successo dei sistemi SP è determinato principalmente dalla loro versatilità, nonché dalla flessibilità dell'architettura, basata su un modello di memoria distribuita con scambio di messaggi.

In generale, un supercomputer SP è un sistema informatico generico, scalabile e massivamente parallelo, costituito da un insieme di stazioni base RS/6000 collegate da uno switch ad alte prestazioni. Chi non conosce, ad esempio, il supercomputer Deep Blue, che è riuscito a battere Garry Kasparov a scacchi? Ma una delle sue modifiche consiste in 32 nodi (IBM RS/6000 SP), basati su 256 processori P2SC (Power Two Super Chip).

La famiglia RS/6000 è la seconda generazione di computer IBM, basata sull'architettura RISC (limited instructions set architecture) sviluppata dalla società alla fine degli anni '70. Con questo concetto, viene utilizzato un insieme molto semplice di comandi per eseguire tutto il lavoro in un sistema informatico. Poiché i comandi sono semplici, possono essere eseguiti a velocità molto elevate e forniscono anche un'implementazione più efficiente del programma eseguibile. La famiglia RS/6000 si basa sull'architettura POWER (Performance Optimized by Advanced RISC architecture) e sui suoi derivati: PowerPC, P2SC, POWER3, ecc. Poiché l'architettura POWER combina i concetti dell'architettura RISC con alcuni concetti più tradizionali, il risultato è un sistema con prestazione complessiva ottimale.

Il sistema RS/6000 SP fornisce la potenza di più processori per risolvere i problemi informatici più complessi. Il sistema di commutazione SP è l'ultima innovazione di IBM nella comunicazione interprocessore a larghezza di banda elevata e senza latenza per un calcolo parallelo efficiente. Diversi tipi di nodi processore, dimensioni variabili del frame (rack) e una varietà di funzionalità I/O aggiuntive garantiscono la selezione della configurazione di sistema più adatta. SP è supportato dai principali fornitori di software in aree quali database paralleli ed elaborazione di transazioni in tempo reale, nonché dai principali fornitori di software tecnico in aree quali l'elaborazione sismica e la progettazione ingegneristica.

IBM RS/6000 SP migliora le capacità applicative con l'elaborazione parallela. Il sistema rimuove le limitazioni prestazionali e aiuta a evitare problemi associati al ridimensionamento e alla presenza di frammenti indivisibili, eseguiti separatamente. Con oltre mille clienti installati in tutto il mondo, gli SP forniscono soluzioni per applicazioni tecniche e commerciali complesse e ad alto volume.

L'unità principale SP è un nodo processore dotato di un'architettura workstation RS/6000. Esistono diversi tipi di nodi SP: sottili, larghi, alti, che differiscono per una serie di parametri tecnici. Ad esempio, i nodi High basati su POWER3-II includono fino a 16 processori e fino a 64 GB di memoria, ma i nodi Thin consentono non più di 4 processori e 16 GB di memoria.

Il sistema è scalabile fino a 512 nodi ed è possibile combinare diverse tipologie di nodi. I nodi sono installati in rack (fino a 16 nodi ciascuno). SP può scalare i dischi in modo quasi lineare insieme ai processori e alla memoria, consentendo un accesso reale a terabyte di memoria. Questo aumento di potenza rende più semplice costruire ed espandere il sistema.

I nodi sono collegati tra loro da uno switch ad alte prestazioni (switch ad alte prestazioni IBM), che ha una struttura a più stadi e funziona con la commutazione di pacchetto.

Ogni nodo SP esegue un sistema operativo AIX completo, consentendoti di sfruttare migliaia di applicazioni AIX preesistenti. Inoltre, i nodi del sistema possono essere combinati in gruppi. Ad esempio, diversi nodi possono fungere da server Lotus Notes, mentre tutti gli altri elaborano un database parallelo.

Gestire sistemi di grandi dimensioni è sempre un compito impegnativo. SP utilizza a questo scopo un'unica console grafica che visualizza gli stati hardware e software, le attività in esecuzione e le informazioni sull'utente. L'amministratore di sistema, utilizzando tale console (workstation di controllo) e il prodotto software PSSP (Parallel Systems Support Programs) collegato all'SP, risolve le attività di gestione, inclusa la gestione della protezione tramite password e delle autorizzazioni utente, la contabilità delle attività eseguite, la gestione della stampa, il monitoraggio del sistema , avviando e spegnendo il sistema.

Il migliore

Come già notato, secondo Top500 (tabella), il supercomputer più potente del nostro tempo è ASCI White, che occupa un'area grande quanto due campi da basket ed è installato presso il Livermore National Laboratory. Comprende 512 nodi SMP basati su processori POWER3-II a 64 bit (per un totale di 8192 processori) e utilizza la nuova tecnologia di comunicazione Colony con un throughput di circa 500 MB/s, che è quasi quattro volte più veloce dell'SP ad alte prestazioni interruttore.

Top ten della Top500 (18a edizione)

Posizione Produttore Computer Dove installato Un paese Anno Numero di processori
1 IBM ASCI Bianco Stati Uniti d'America 2000 8192
2 Compaq AlphaServer SC Centro di supercalcolo di Pittsburgh Stati Uniti d'America 2001 3024
3 IBM Potenza SP3 Istituto di ricerca energetica NERSC Stati Uniti d'America 2001 3328
4 Intel ASCI Rosso Laboratorio Nazionale Sandia Stati Uniti d'America 1999 9632
5 IBM ASCI Blu Pacifico Laboratorio nazionale di Livermore Stati Uniti d'America 1999 5808
6 Compaq AlphaServer SC Stati Uniti d'America 2001 1536
7 Hitachi SR8000/MPP Università di Tokio Giappone 2001 1152
8 SGI ASCI Montagna Blu Laboratorio Nazionale di Los Alamos Stati Uniti d'America 1998 6144
9 IBM Potenza SP3 Centro Oceanografico NAVOCEANO Stati Uniti d'America 2000 1336
10 IBM Potenza SP3 Servizio meteorologico tedesco Germania 2001 1280

L'architettura del nuovo supercomputer si basa sulla comprovata architettura RS/6000 massivamente parallela e fornisce prestazioni di 12,3 teraflop (trilioni di operazioni al secondo). Il sistema include un totale di 8 TB di RAM distribuiti su nodi SMP a 16 processori e 160 TB di memoria su disco. La consegna del sistema dai laboratori IBM nello stato di New York a Livermore, in California, ha richiesto 28 camion-rimorchi.

Tutti i nodi del sistema eseguono il sistema operativo AIX. Il supercomputer viene utilizzato dagli scienziati del Dipartimento dell’Energia degli Stati Uniti per eseguire complessi modelli 3D per mantenere al sicuro le armi nucleari. In realtà, ASCI White è il terzo passo nel programma in cinque fasi di ASCI, che prevede la creazione di un nuovo supercomputer nel 2004. In generale, ASCI White è costituito da tre sistemi separati, di cui White è il più grande (512 nodi, 8192 processori), e c'è anche Ice (28 nodi, 448 processori) e Frost (68 nodi, 1088 processori).

Il predecessore di ASCI White era il supercomputer Blue Pacific (un altro nome per ASCI Blue), che comprendeva 1464 nodi a quattro processori basati su cristalli PowerPC 604e/332 MHz. I nodi sono collegati in un unico sistema utilizzando cavi per un totale di quasi cinque miglia e l'area della sala computer è di 8 mila piedi quadrati. Il sistema ASCI Blue è composto da un totale di 5856 processori e fornisce prestazioni di picco di 3,88 teraflop. La quantità totale di RAM è di 2,6 TB.

Un supercomputer è costituito da chilometri di cavi.

Il Centro nazionale statunitense per la ricerca atmosferica (NCAR) ha scelto IBM come fornitore del supercomputer più potente al mondo progettato per prevedere il cambiamento climatico. Il sistema, noto come Blue Sky, aumenterà le capacità di modellazione climatica dell’NCAR di un ordine di grandezza quando sarà pienamente operativo quest’anno. Il cuore di Blue Sky sarà costituito dal supercomputer IBM SP e dai sistemi IBM eServer p690, il cui utilizzo consentirà di raggiungere prestazioni di picco di quasi 7 Tflop con un volume del sottosistema disco IBM SSA di 31,5 TB.

Il supercomputer, chiamato Blue Storm, è stato creato per ordine del Centro europeo per le previsioni meteorologiche a medio termine (ECMWF). Blue Storm sarà due volte più potente di ASCI White. Per realizzarlo sono necessari 100 server IBM eServer p690, noti anche come Regatta. Ogni unità di sistema, delle dimensioni di un frigorifero, contiene più di mille processori. Nel 2004, Blue Storm sarà dotata di server p960 di nuova generazione, che la renderanno due volte più potente. Il supercomputer eseguirà il sistema operativo AIX. Inizialmente, la capacità totale delle unità Blue Storm sarà di 1,5 petabyte e la potenza di calcolo sarà di circa 23 teraflop. Il sistema peserà 130 tonnellate e sarà 1.700 volte più potente del supercomputer di scacchi Deep Blue.

I ricercatori IBM stanno lavorando con il Livermore National Laboratory sui computer Blue Gene/L e Blue Gene/C. Questi computer fanno parte del progetto quinquennale Blue Gene per lo studio delle proteine, iniziato nel 1999 e nel quale sono stati investiti 100 milioni di dollari.La creazione del nuovo supercomputer Blue Gene/L (200 teraflop) sarà completata nel 2004 - per sei mesi – un anno prima del previsto completamento dei lavori sul più potente computer Blue Gene/C (1000 teraflop). Le prestazioni progettuali di Blue Gene/L supereranno quindi le prestazioni combinate dei 500 computer più potenti del mondo. Inoltre, il nuovo supercomputer occupa un’area pari solo alla metà di un campo da tennis. Gli ingegneri IBM hanno anche lavorato per ridurre il consumo di energia: sono riusciti a ridurlo di 15 volte.

Appunti

Test LINPACK.
I benchmark LINPACK si basano sulla risoluzione di un sistema di equazioni lineari con una matrice densa di coefficienti su un campo di numeri reali utilizzando l'eliminazione gaussiana. I numeri reali sono solitamente rappresentati con la massima precisione. A causa dell'elevato numero di operazioni su numeri reali, i risultati LINPACK sono considerati il ​​punto di riferimento per le prestazioni delle configurazioni hardware e software in aree che utilizzano intensivamente calcoli matematici complessi.

Simulatore della Terra.
Secondo la rivista New Scientist, nella nuova diciannovesima versione della lista Top 500 dei supercomputer, il sistema di supercomputer per il progetto Earth Simulator della NEC Corporation occuperà il primo posto. È installato presso l'Istituto giapponese di scienze della terra (Yokohama Institute for Earth Sciences) a Kanagawa, nella prefettura di Yokohama. Gli sviluppatori affermano che le sue prestazioni massime possono raggiungere i 40 Tflops.

Il supercomputer Earth Simulator è progettato per simulare il cambiamento climatico sulla base dei dati ricevuti dai satelliti. Secondo i rappresentanti di NEC, le elevate prestazioni del computer si ottengono attraverso l'uso di processori vettoriali appositamente progettati. Il sistema si basa su 5120 processori di questo tipo, combinati in 640 nodi SX-6 (8 processori ciascuno). Il supercomputer esegue il sistema operativo SUPER-UX. Gli strumenti di sviluppo includono compilatori per linguaggi C/C++, Fortran 90 e HPF, nonché strumenti di vettorizzazione automatica, un'implementazione dell'interfaccia MPI-2 e la libreria matematica ASL/ES. L'intera macchina occupa l'area di tre campi da tennis (50 x 65 m) e utilizza diversi chilometri di cavo.

Il supercomputer K Computer, che in precedenza occupava il primo posto, è stato spinto al terzo posto. La sua prestazione è di 11,28 Pflop (vedi Figura 1). Ricordiamo che il FLOPS (FLoating-point Operations Per Second, FLOPS) è un'unità di misura delle prestazioni del computer, che mostra quante operazioni in virgola mobile al secondo un dato sistema informatico è in grado di eseguire.

K Computer è uno sviluppo congiunto del Rikagaku Kenkiyo Institute of Physical and Chemical Research (RIKEN) e Fujitsu. È stato creato come parte dell'iniziativa High-Performance Computing Infrastructure guidata dal Ministero giapponese dell'Istruzione, della Cultura, dello Sport, della Scienza e della Tecnologia (MEXT). Il supercomputer è installato sul territorio dell'Istituto di scienze informatiche avanzate nella città giapponese di Kobe.

Il supercomputer si basa su un'architettura di memoria distribuita. Il sistema è costituito da oltre 80.000 nodi di calcolo ed è ospitato in 864 rack, ciascuno dei quali ospita 96 nodi di calcolo e 6 nodi I/O. I nodi, contenenti ciascuno un processore e 16 GB di RAM, sono interconnessi secondo la topologia “loop/torus a sei dimensioni”. Il sistema utilizza un totale di 88.128 processori SPARC64 VIIIfx a otto core (705.024 core) prodotti da Fujitsu utilizzando la tecnologia a 45 nm.

Questo supercomputer per uso generale fornisce elevati livelli di prestazioni e supporto per un'ampia gamma di applicazioni. Il sistema viene utilizzato per condurre ricerche nei settori del cambiamento climatico, della prevenzione delle catastrofi e della medicina.

L'esclusivo sistema di raffreddamento ad acqua riduce la probabilità di guasti alle apparecchiature e riduce il consumo energetico complessivo. Il risparmio energetico è ottenuto attraverso l'uso di apparecchiature altamente efficienti, un sistema di cogenerazione di calore ed elettricità e una serie di pannelli solari. Inoltre, il meccanismo per riutilizzare le acque reflue del refrigeratore riduce l'impatto negativo sull'ambiente.

L'edificio in cui si trova K Computer è antisismico e può resistere a terremoti di magnitudo 6 o più sulla scala giapponese (0-7). Per ospitare in modo più efficiente i rack e i cavi delle apparecchiature, il terzo piano, che misura 50×60 m, è completamente privo di colonne portanti. Le moderne tecnologie costruttive hanno permesso di garantire un livello di carico accettabile (fino a 1 t/m2) per l'installazione di scaffalature, il cui peso può raggiungere 1,5 tonnellate.

SUPERCOMPUTER SEQUOIA

Il supercomputer Sequoia installato presso il Lawrence Livermore National Laboratory. Lawrence, ha una performance di 16.32 Pflops e si colloca al secondo posto nella classifica (vedi Figura 2).

Questo supercomputer petaflop, sviluppato da IBM sulla base di Blue Gene/Q, è stato creato per la National Nuclear Security Administration (NNSA) statunitense nell'ambito del programma Advanced Simulation and Computing.

Il sistema è composto da 96 rack e 98.304 nodi di elaborazione (1024 nodi per rack). Ogni nodo include un processore PowerPC A2 a 16 core e 16 GB di RAM DDR3. In totale vengono utilizzati 1.572.864 core del processore e 1,6 PB di memoria. I nodi sono collegati tra loro secondo la topologia del “toro a cinque dimensioni”. L'area occupata dal sistema è di 280 m2. Il consumo energetico totale è di 7,9 MW.

Il supercomputer Sequoia è stato il primo al mondo a effettuare calcoli scientifici, che richiedevano una potenza di calcolo di oltre 10 Pflop. Pertanto, il sistema di simulazione cosmologica HACC ha richiesto circa 14 Pflop quando veniva eseguito in modalità 3,6 trilioni di particelle, mentre quando si eseguiva il codice del progetto Cardiod per simulare l’elettrofisiologia del cuore umano, le prestazioni hanno raggiunto quasi 12 Pflop.

SUPERCOMPUTER TITANO

Il supercomputer Titan, installato presso l'Oak Ridge National Laboratory (ORNL) negli Stati Uniti, è stato riconosciuto come il supercomputer più veloce del mondo. Nei test benchmark Linpack, le sue prestazioni sono state di 17,59 Pflop.

Titan implementa un'architettura ibrida CPU-GPU (vedere Figura 3). Il sistema è composto da 18.688 nodi, ciascuno dotato di un processore AMD Opteron a 16 core e di un acceleratore grafico Nvidia Tesla K20X. Vengono utilizzati un totale di 560.640 processori. Titan è un aggiornamento del supercomputer Jaguar precedentemente gestito da ORNL e occupa gli stessi armadietti server (superficie totale di 404 m2).

La possibilità di utilizzare i sistemi di alimentazione e raffreddamento esistenti ha consentito di risparmiare circa 20 milioni di dollari durante la costruzione. Il consumo energetico del supercomputer è di 8,2 MW, ovvero 1,2 MW in più rispetto alla Jaguar, mentre le sue prestazioni nelle operazioni in virgola mobile sono quasi 10 volte superiori.

Titan sarà utilizzato principalmente per condurre ricerche nel campo della scienza dei materiali e dell'energia nucleare, nonché ricerche relative al miglioramento dell'efficienza dei motori a combustione interna. Inoltre, verrà utilizzato per modellare il cambiamento climatico e analizzare potenziali strategie per affrontare i suoi impatti negativi.

IL SUPERCOMPUTER PIÙ "VERDE".

Oltre al rating Top500, volto a individuare il sistema più performante, esiste il rating Green500, che premia i supercomputer più “verdi”. Qui viene preso come base l'indicatore di efficienza energetica (Mflops/W). Al momento (l'ultima pubblicazione della classifica è di novembre 2012), il leader dei Green500 è il supercomputer Beacon (253esimo posto nella Top500). Il suo indicatore di efficienza energetica è di 2499 Mflops/W.

Beacon è alimentato da coprocessori Intel Xeon Phi 5110P e processori Intel Xeon E5-2670, quindi le prestazioni di picco possono raggiungere 112.200 Gflop con un consumo energetico totale di 44,9 kW. I coprocessori Xeon Phi 5110P offrono prestazioni elevate con un basso consumo energetico. Ogni coprocessore ha 1 teraflop di potenza (doppia precisione) e supporta fino a 8 GB di memoria GDDR5 con larghezza di banda di 320 Gbps.

Il sistema di raffreddamento passivo dello Xeon Phi 5110P ha un TDP nominale di 225 W, ideale per server ad alta densità.

SUPERCOMPUTER EURORA

Tuttavia, nel febbraio 2013, è emerso che il supercomputer Eurora, situato a Bologna (Italia), ha superato Beacon in termini di efficienza energetica (3150 Mflops/watt contro 2499 Mflops/W).

Eurora è costruito da Eurotech ed è composto da 64 nodi, ciascuno dei quali include due processori Intel Xeon E5-2687W, due acceleratori GPU Nvidia Tesla K20 e altro hardware. Le dimensioni di un tale nodo non superano le dimensioni di un laptop, ma le loro prestazioni sono 30 volte superiori e il consumo energetico è 15 volte inferiore.

L'elevata efficienza energetica in Eurora è ottenuta attraverso l'uso di diverse tecnologie. Il raffreddamento ad acqua dà il contributo maggiore. Pertanto, ogni nodo del supercomputer è una sorta di sandwich: l’apparecchiatura centrale in basso, uno scambiatore di calore ad acqua al centro e un’altra unità elettronica in alto (vedi Figura 4).

Risultati così elevati si ottengono grazie all'uso di materiali con buona conduttività termica e ad una vasta rete di canali di raffreddamento. Quando si installa un nuovo modulo di calcolo, i suoi canali vengono combinati con i canali del sistema di raffreddamento, che consente di modificare la configurazione del supercomputer in base alle esigenze specifiche. Secondo i produttori, il rischio di perdite è eliminato.

Gli elementi del supercomputer Eurora sono alimentati da fonti CC a 48 volt, la cui introduzione ha ridotto il numero di conversioni di energia. Infine, l’acqua calda rimossa dalle apparecchiature informatiche può essere utilizzata per altri scopi.

CONCLUSIONE

L’industria dei supercomputer sta sviluppando attivamente e stabilendo sempre nuovi record in termini di prestazioni ed efficienza energetica. Va notato che è in questo settore, come in nessun altro, che oggi le tecnologie di raffreddamento a liquido e di modellazione 3D sono ampiamente utilizzate, poiché gli specialisti devono affrontare il compito di assemblare un sistema informatico super potente che sia in grado di funzionare in un volume limitato con perdite di energia minime.

Yuri Khomutsky- Ingegnere Capo Progetto presso I-Teco. Può essere contattato a: [e-mail protetta]. L'articolo utilizza materiali dal portale Internet sui data center "www.AboutDC.ru - Soluzioni per data center".

Momento della lettura: 2 minuti.

Finora l’umanità non ha raggiunto i cumuli di rifiuti di Marte, non ha inventato l’elisir della giovinezza, le automobili non possono ancora librarsi da terra, ma ci sono diversi ambiti in cui siamo ancora riusciti. La creazione di potenti supercomputer è proprio uno di questi ambiti. Per valutare la potenza di un computer, è necessario determinare quale parametro chiave è responsabile di questa caratteristica. Questo parametro è flop, un valore che mostra quante operazioni un PC può eseguire in un secondo. È sulla base di questo valore che la nostra rivista Big Rating ha classificato i computer più potenti del mondo nel 2017.

Potenza del supercomputer: 8,1 Pflop/sec

Questo computer memorizza i dati che sono responsabili della sicurezza della struttura militare degli Stati Uniti ed è anche responsabile dello stato di preparazione per un attacco nucleare, se necessario. Due anni fa questa macchina era una delle più potenti e costose al mondo, ma oggi Trinity è stata sostituita da dispositivi più recenti. Il sistema su cui gira questo supercomputer è Cray XC40, grazie al quale il dispositivo può “eseguire” un tale numero di operazioni al secondo.

Mira

Potenza del supercomputer: 8,6 Pflop/sec

Cray ha rilasciato un altro supercomputer, Mira. Il Dipartimento dell'Energia degli Stati Uniti ha ordinato la produzione di questa macchina per coordinare il proprio lavoro. L'ambito in cui Mira opera è quello dell'industria e dello sviluppo del potenziale della ricerca. Questo supercomputer può calcolare 8,6 petaflop al secondo.

Potenza del supercomputer: 10,5 Pflop/sec

Il nome di questo dispositivo ne descrive immediatamente la potenza, la parola giapponese “kei” (K) significa dieci quadrilioni. Questa cifra descrive quasi esattamente la sua capacità produttiva: 10,5 petaflop. Il punto forte di questo supercomputer è il suo sistema di raffreddamento. Viene utilizzato il raffreddamento ad acqua, che riduce il consumo di riserve energetiche e riduce la velocità di assemblaggio.

Potenza del supercomputer: 13,6 Pflop/sec

Fujitsu, un'azienda del Paese del Sol Levante, non ha smesso di lavorare, dopo aver rilasciato il supercomputer K Computer, ha subito iniziato un nuovo progetto. Questo progetto riguardava il supercomputer Oakforest-Pacs, classificato come una nuova generazione di macchine (generazione di atterraggio dei Knights). Il suo sviluppo è stato commissionato dall'Università di Tokyo e dall'Università di Tsukuba. Secondo il piano originale, la memoria del dispositivo avrebbe dovuto essere di 900 TB e le prestazioni di Oakforest-Pacs sarebbero state di 25 quadrilioni di operazioni al secondo. Ma a causa della mancanza di fondi, molti aspetti non furono finalizzati, quindi la potenza del supercomputer era di 13,6 petaflop al secondo.

Cori

Potenza del supercomputer – 14 Pflop/sec

L'anno scorso Cori era al sesto posto nella lista dei supercomputer più potenti del mondo, ma con la folle velocità dello sviluppo tecnologico ha perso una posizione. Questo supercomputer si trova negli Stati Uniti, presso il Lawrence Berkeley National Laboratory. Scienziati svizzeri, con l'aiuto di Cori, sono stati in grado di sviluppare una macchina per il calcolo quantistico da 45 qubit. La capacità di produzione di questo supercomputer è di 14 petaflop al secondo.

Potenza del supercomputer – 17,2 Pflop/sec

Gli scienziati di tutto il mondo concordano da tempo sul fatto che Sequoia è il supercomputer più veloce del pianeta. E non è proprio così, perché è in grado di eseguire calcoli aritmetici che impiegherebbero 6,7 miliardi di persone 320 anni, in un secondo. Le dimensioni della macchina sono davvero sorprendenti: occupa più di 390 metri quadrati e comprende 96 scaffalature. Sedicimila trilioni di operazioni o in altre parole 17,2 petaflop è la capacità produttiva di questo supercomputer.

Titano

Potenza del supercomputer: 17,6 Pflop/sec

Oltre ad essere uno dei supercomputer più veloci del pianeta, è anche molto efficiente dal punto di vista energetico. L'indicatore di efficienza energetica è di 2142,77 megaflop per watt di energia richiesta per il consumo. Il motivo di questo basso consumo energetico è l'acceleratore Nvidia, che fornisce fino al 90% della potenza necessaria per il calcolo. Inoltre, l'acceleratore Nvidia ha ridotto notevolmente l'area occupata da questo supercomputer, che ora necessita solo di 404 metri quadrati.

Potenza del supercomputer: 19,6 Pflop/sec

Il primo lancio di questo dispositivo è avvenuto nel 2013, in Svizzera, nella città di Lugano. Ora la geolocalizzazione di questo supercomputer è il Centro nazionale svizzero di supercalcolo. Piz Daint è la sintesi di tutte le migliori caratteristiche delle macchine sopra citate, ha un'altissima efficienza energetica ed è molto veloce nei calcoli. Solo una caratteristica lascia molto a desiderare: le dimensioni di questo supercomputer: occupa 28 enormi rack. Piz Daint è capace di 19,6 petaflop di potenza di calcolo al secondo.

Potenza del supercomputer: 33,9 Pflop/sec

Questo dispositivo ha il nome romantico Tianhe, che in cinese significa “Via Lattea”. Tianhe-2 era il computer più veloce nell'elenco dei 500 supercomputer più veloci e potenti. Può calcolare 2507 operazioni aritmetiche, che in petaflop sono 33,9 Pflop/sec. La specializzazione in cui viene utilizzato questo computer è l'edilizia; calcola le operazioni relative alla costruzione e alla posa delle strade. Dal suo primo lancio nel 2013, questo computer non ha perso la sua posizione nelle classifiche, il che dimostra che è una delle migliori macchine al mondo.

Potenza del supercomputer: 93 Pflop/sec

Sunway TaihuLight è il supercomputer più veloce del mondo, oltre alla sua enorme velocità di calcolo, è famoso anche per le sue enormi dimensioni: occupa un'area di oltre 1000 metri quadrati. La conferenza internazionale del 2016, tenutasi in Germania, ha riconosciuto questo supercomputer come il più veloce al mondo e non ha ancora un serio concorrente in questo senso. La sua velocità è tre volte superiore a quella di Tianhe-2, il supercomputer più vicino a questo riguardo!

Il progresso tecnologico non si ferma, si sviluppa a velocità cosmica, influenza molti aspetti della vita umana e presenta molti lati positivi e negativi. Oggigiorno sono diventate disponibili per gli esseri umani tecnologie di vario tipo: computer, robot e strumenti. Ma lo scopo principale di qualsiasi attrezzatura è semplificare la vita di una persona; la tecnologia non dovrebbe diventare un intrattenimento senza senso che ti farà solo perdere tempo.



Condividere