Supercomputer in der modernen Welt. Abonnieren Sie Neuigkeiten

In den letzten Jahren haben Computerdesign- und Produktionsunternehmen unermüdlich gearbeitet. Infolgedessen wächst die Menge an Technologie auf der Welt exponentiell.

Die leistungsstärksten Computer

Noch vor kurzem wusste die Welt noch nichts von DirectX10 und die Grafik von FarCry oder NFS Underground 2 schien der Gipfel der Computerfähigkeiten zu sein. Früher schien eine Festplatte, die 600 Megabyte an Informationen speichern konnte, ein Wunder der Technik zu sein, doch heute sind Terabyte-Speicherkarten frei erhältlich.

Im Bereich der Supercomputer passiert fast das Gleiche. Im Jahr 1993 kam Jack Dongarra, Professor an der University of Tennessee, auf die Idee, ein Ranking der leistungsstärksten Computer der Welt zu erstellen. Seitdem wird diese TOP500 genannte Liste zweimal im Jahr aktualisiert: im Juni und November.

Die Zeit vergeht und die Spitzenreiter in den Supercomputer-Ratings der frühen 90er Jahre sind selbst nach den Maßstäben gewöhnlicher PC-Benutzer bereits gottlos veraltet. Der erste im Jahr 1993 war also der CM-5/1024, zusammengebaut von Thinking Machines: 1024 Prozessoren mit einer Taktfrequenz von 32 MHz, einer Rechengeschwindigkeit von 59,7 Gigaflops – etwas schneller als ein gewöhnlicher 8-Core-PC unter Ihrem Schreibtisch. Welcher ist heute der beste Computer?


Sunway TaihuLight

Noch vor fünf Jahren lag die Spitzenleistung in puncto Leistung durchweg in den Händen von Supercomputern aus den USA. Im Jahr 2013 übernahmen chinesische Wissenschaftler die Führung und werden sie offenbar nicht abgeben.

Als leistungsstärkster Computer der Welt gilt derzeit der Sunway TaihuLight (übersetzt als „Die göttliche Lichtkraft des Taihu-Sees“), eine grandiose Maschine mit einer Rechengeschwindigkeit von 93 Petaflops (maximale Geschwindigkeit - 125,43 Petaflops). Das ist 2,5-mal leistungsstärker als der bisherige Rekordhalter – der Tianhe-2-Supercomputer, der bis Juni 2016 als der leistungsstärkste galt.


Sunway Taihulight verfügt über 10,5 Millionen integrierte Kerne (40.960 Prozessoren mit jeweils 256 Rechen- und 4 Steuerkernen).

So sieht der leistungsstärkste Computer des Jahres 2016 aus

Alle Geräte wurden in China entwickelt und hergestellt, während die Prozessoren des bisher leistungsstärksten Computers von der amerikanischen Firma Intel hergestellt wurden. Die Kosten für Sunway TaihuLight werden auf 270 Millionen US-Dollar geschätzt. Der Supercomputer befindet sich im National Supercomputer Center des Kreises Wuxi.

Rekordhalter der vergangenen Jahre

Bis Juni 2016 (und die TOP500-Liste wird jeden Juni und November aktualisiert) war der leistungsstärkste und schnellste Computer die Supermaschine Tianhe-2 (übersetzt aus dem Chinesischen als „Milchstraße“), die in China an der Universität für Verteidigungswissenschaft und -technologie in entwickelt wurde Changsha mit Hilfe der Firma Inspur.


Die Leistung von Tianhe-2 bietet 2507 Billionen Operationen pro Sekunde (33,86 Petaflops pro Sekunde), die Spitzenleistung beträgt 54,9 Petaflops. Die chinesische Entwicklung liegt seit ihrer Einführung im Jahr 2013 an der Spitze dieser Rangliste – ein unglaublich beeindruckender Wert!

Supercomputer Tianhe-2

Die Eigenschaften von Tianhe-2 sind wie folgt: 16.000 Knoten, 32.000 Intel Xeon E5-2692-Prozessoren mit 12 Kernen und 48.000 Intel Xeon Phi 31S1P-Beschleuniger mit 57 Kernen, was insgesamt 3.120.000 Kerne bedeutet; 256.000 DDR3-RAM-Sticks mit je 4 GB und 176.000 GDDR5-8-GB-Sticks – insgesamt 2.432.000 GB RAM. Die Festplattenkapazität beträgt mehr als 13 Millionen GB. Sie können darauf jedoch nicht spielen, da es ausschließlich für Computerzwecke gedacht ist und in Milky Way 2 keine Grafikkarte eingebaut ist. Insbesondere hilft es bei Berechnungen für die Verlegung von U-Bahnen und die Stadtentwicklung.

Jaguar

An der Spitze der Rangliste stand lange Zeit Jaguar, ein Supercomputer aus den USA. Wie unterscheidet es sich von den anderen und welche technischen Vorteile bietet es?


Der Supercomputer namens Jaguar besteht aus einer großen Anzahl unabhängiger Zellen, die in zwei Abschnitte unterteilt sind – XT4 und XT5. Der letzte Abschnitt enthält genau 18688 Rechenzellen. Jede Zelle enthält zwei AMD Opteron 2356-Prozessoren mit sechs Kernen und einer Frequenz von 2,3 GHz, 16 GB DDR2-RAM sowie einen SeaStar 2+-Router. Schon eine Zelle aus diesem Abschnitt würde ausreichen, um den leistungsstärksten Computer für Spiele zu bauen. Der Abschnitt enthält nur 149.504 Rechenkerne, eine riesige Menge RAM – mehr als 300 TB, sowie eine Leistung von 1,38 Petaflops und mehr als 6 Petabyte Speicherplatz.

Ein Computermonster bauen

Die XT4-Partition enthält 7832 Zellen. Ihre Eigenschaften sind bescheidener als die des vorherigen XT5-Abschnitts: Jede Zelle enthält einen Sechskernprozessor mit einer Frequenz von 2,1 GHz, 8 GB RAM und einen SeaStar 2-Router. Insgesamt verfügt der Abschnitt über 31.328 Rechenkerne und mehr als 62 TB Arbeitsspeicher, sowie eine Spitzenleistung von 263 TFLOPS und mehr als 600 TB Festplattenspeicher. Der Jaguar-Supercomputer läuft auf seinem eigenen Betriebssystem, Cray Linux Environment.

Ein weiterer Computer atmet im Heck von Jaguar, der Idee von IBM – Roadrunner. Das leistungsstärkste Rechenmonster ist in der Lage, bis zu 1.000.000.000.000 Operationen pro Sekunde zu berechnen. Es wurde speziell für die National Nuclear Security Administration des Energieministeriums in Los Alamos entwickelt. Mit Hilfe dieses Supercomputers wollten sie den Betrieb aller Kernkraftwerke in den Vereinigten Staaten überwachen.


Die Spides Road Runner beträgt etwa 1,5 Petaflops. Wir sprechen von einer Gesamtkapazität von 3.456 ursprünglichen Tri-Blade-Servern, von denen jeder etwa 400 Milliarden Operationen pro Sekunde (also 400 Gigaflops) ausführen kann. Im Roadrunner stecken rund 20.000 Hochleistungs-Dual-Core-Prozessoren – 12.960 Cell Broadband Engine und 6948 AMD Opteron, die Idee von IBM selbst. Ein solcher Supercomputer verfügt über einen Systemspeicher von 80 Terabyte.

Wie viel Platz nimmt dieses Wunderwerk der Technik ein? Die Maschine steht auf einer Fläche von 560 Quadratmetern. Und die gesamte Ausrüstung der Abteilung ist in Servern der Originalarchitektur untergebracht. Die gesamte Ausrüstung wiegt etwa 23 Tonnen. Für den Transport benötigen die Mitarbeiter der National Nuclear Security Administration also mindestens 21 große Traktoren.

Ein paar Worte darüber, was Petaflops sind. Ein Petaflop entspricht ungefähr der Gesamtleistung von 100.000 modernen Laptops. Wenn Sie sich vorstellen, könnten sie eine fast zweieinhalb Kilometer lange Straße pflastern. Ein weiterer leicht zugänglicher Vergleich: Innerhalb von 46 Jahren wird die gesamte Weltbevölkerung Taschenrechner verwenden, um Berechnungen durchzuführen, die Roadrunner an einem Tag durchführen kann. Können Sie sich vorstellen, wie wenig Sunway TaihuLigh, der Spitzenreiter unserer Bewertung, benötigen wird?

Titan

Im Jahr 2012 brachte das Oak Ridge National Laboratory des US-Energieministeriums den Titan-Supercomputer auf den Markt, der eine Leistung von 20 Petaflops hat – mit anderen Worten, er kann eine Billiarde Gleitkommaoperationen in einer Sekunde ausführen.


Titan wurde von Cray entwickelt. Neben Titan haben amerikanische Spezialisten in den letzten Jahren zwei weitere Supercomputer entwickelt. Einer von ihnen – Mira – ist für industrielle und wissenschaftliche Forschungszwecke gedacht, und mit Hilfe des anderen – Sequoia – simulieren sie Atomwaffentests. Hinter all diesen Entwicklungen steht die IBM Corporation.

Der leistungsstärkste Computer in Russland

Leider liegt die russische Entwicklung „Lomonosov-2“, die als leistungsstärkster Computer Russlands gilt, nur auf Platz 41 der TOP500 (Stand: Juni 2016). Es hat seinen Sitz im Wissenschaftlichen Rechenzentrum der Moskauer Staatlichen Universität. Die Leistung des heimischen Supercomputers beträgt 1.849 Petaflops, die Spitzenleistung liegt bei etwa 2,5 Petaflops. Anzahl der Kerne: 42.688.



Abonnieren Sie unseren Kanal in Yandex.Zen

Supercomputer Titan

Noch immer fliegen Menschen nicht zum Mars, Krebs ist noch nicht geheilt und wir haben die Ölsucht nicht losgeworden. Und doch gibt es Bereiche, in denen die Menschheit in den letzten Jahrzehnten unglaubliche Fortschritte gemacht hat. Die Rechenleistung von Computern ist nur eine davon.

Zweimal im Jahr veröffentlichen Experten des Lawrence Berkeley National Laboratory und der University of Tennessee die Top 500, eine Liste der leistungsstärksten Supercomputer der Welt.

Mit Blick auf die Zukunft empfehlen wir Ihnen, diese Zahlen vorab zu probieren: Die Produktivität der Vertreter der Top Ten wird in Dutzenden Billiarden Flops gemessen. Zum Vergleich: ENIAC, der erste Computer der Geschichte, hatte eine Leistung von 500 Flops; Heutzutage verfügt ein durchschnittlicher Personalcomputer über Hunderte Gigaflops (Milliarden Flops), das iPhone 6 über etwa 172 Gigaflops und die PS4 über 1,84 Teraflops (Billionen Flops).

Basierend auf den neuesten Top 500 vom November 2014 beschloss Naked Science, herauszufinden, welche die 10 leistungsstärksten Supercomputer der Welt sind und welche Probleme eine solch enorme Rechenleistung erfordern, um sie zu lösen.

  • Standort: USA
  • Leistung: 3,57 Petaflops
  • Theoretische Höchstleistung: 6,13 Petaflops
  • Leistung: 1,4 MW

Wie fast alle modernen Supercomputer, einschließlich aller in diesem Artikel vorgestellten, besteht CS-Storm aus vielen Prozessoren, die nach dem Prinzip einer massiv parallelen Architektur zu einem einzigen Computernetzwerk vereint sind. In Wirklichkeit besteht dieses System aus vielen Racks („Schränken“) mit Elektronik (Knoten bestehend aus Mehrkernprozessoren), die ganze Korridore bilden.

Cray CS-Storm ist eine ganze Reihe von Supercomputer-Clustern, aber einer von ihnen sticht immer noch aus der Masse heraus. Konkret handelt es sich um den mysteriösen CS-Storm, der von der US-Regierung für unbekannte Zwecke und an einem unbekannten Ort eingesetzt wird.

Bekannt ist, dass amerikanische Beamte einen äußerst energieeffizienten CS-Storm (2386 Megaflops pro 1 Watt) mit einer Gesamtzahl von fast 79.000 Kernen von der amerikanischen Firma Cray gekauft haben.

Auf der Website des Herstellers heißt es jedoch, dass CS-Storm-Cluster für Hochleistungsrechnen in den Bereichen Cybersicherheit, Geointelligenz, Mustererkennung, seismische Datenverarbeitung, Rendering und maschinelles Lernen geeignet seien. Irgendwann in dieser Serie hat sich die Verwendung des staatlichen CS-Storm wahrscheinlich eingependelt.

CRAY CS-STORM

9. Vulkan – Blaues Gen/Q

  • Standort: USA
  • Leistung: 4,29 Petaflops
  • Theoretische Höchstleistung: 5,03 Petaflops
  • Leistung: 1,9 MW

„Vulcan“ wurde von der amerikanischen Firma IBM entwickelt, gehört zur Blue Gene-Familie und befindet sich am Lawrence Livermore National Laboratory. Der Supercomputer, der dem US-Energieministerium gehört, besteht aus 24 Racks. Der Cluster nahm 2013 seinen Betrieb auf.

Im Gegensatz zum bereits erwähnten CS-Storm ist der Anwendungsbereich von Vulcan bekannt – verschiedene wissenschaftliche Forschungen, auch im Energiebereich, wie die Modellierung natürlicher Phänomene und die Analyse großer Datenmengen.

Verschiedene wissenschaftliche Gruppen und Unternehmen können Zugang zum Supercomputer erhalten, indem sie einen Antrag beim High Performance Computing Innovation Center (HPC Innovation Center) einreichen, das im selben Livermore National Laboratory ansässig ist.

Supercomputer Vulkan

8. Juqueen – Blaues Gen/Q

  • Standort: Deutschland
  • Leistung: 5 Petaflops
  • Theoretische Höchstleistung: 5,87 Petaflops
  • Leistung: 2,3 MW

Seit seiner Einführung im Jahr 2012 ist Juqueen der zweitstärkste Supercomputer in Europa und der erste in Deutschland. Dieser Supercomputer-Cluster wurde wie Vulcan von IBM im Rahmen des Blue Gene-Projekts entwickelt und gehört zur gleichen Generation Q.

Der Supercomputer steht in einem der größten Forschungszentren Europas in Jülich. Es wird entsprechend eingesetzt – für Hochleistungsrechnen in verschiedenen wissenschaftlichen Forschungen.

Juqueen-Supercomputer

7. Stampede – PowerEdge C8220

  • Standort: USA
  • Leistung: 5,16 Petaflops
  • Theoretische Höchstleistung: 8,52 Petaflops
  • Leistung: 4,5 MW

Stampede liegt in Texas und ist der einzige Cluster in den Top Ten der Top 500, der von der amerikanischen Firma Dell entwickelt wurde. Der Supercomputer besteht aus 160 Racks.

Dieser Supercomputer ist der leistungsstärkste der Welt unter den ausschließlich für Forschungszwecke genutzten Supercomputern. Der Zugang zu den Stampede-Einrichtungen steht wissenschaftlichen Gruppen offen. Der Cluster wird in einer Vielzahl wissenschaftlicher Bereiche eingesetzt – von der präzisen Tomographie des menschlichen Gehirns über die Erdbebenvorhersage bis hin zur Identifizierung von Mustern in Musik- und Sprachstrukturen.

Supercomputer-Stampede

6. Piz Daint – Cray XC30

  • Standort: Schweiz
  • Leistung: 6,27 Petaflops
  • Theoretische Höchstleistung: 7,78 Petaflops
  • Leistung: 2,3 MW

Das Swiss National Supercomputing Centre (CSCS) verfügt über den leistungsstärksten Supercomputer Europas. Der Piz Daint, benannt nach dem Alpenberg, wurde von Cray entwickelt und gehört zur XC30-Familie, innerhalb derer er am produktivsten ist.

Piz Daint wird für verschiedene Forschungszwecke genutzt, beispielsweise für Computersimulationen im Bereich der Hochenergiephysik.

Supercomputer Piz Daint

5. Mira – Blaues Gen/Q

  • Standort: USA
  • Leistung: 8,56 Petaflops
  • Theoretische Höchstleistung: 10,06 Petaflops
  • Leistung: 3,9 MW

Der Supercomputer Mira wurde 2012 von IBM im Rahmen des Blue Gene-Projekts entwickelt. Die High Performance Computing Division des Argonne National Laboratory, in der sich der Cluster befindet, wurde mit staatlichen Mitteln gegründet. Es wird angenommen, dass das zunehmende Interesse Washingtons an Supercomputing-Technologie Ende der 2000er und Anfang der 2010er Jahre auf die Rivalität mit China in diesem Bereich zurückzuführen ist.

Mira ist auf 48 Racks verteilt und wird für wissenschaftliche Zwecke genutzt. Der Supercomputer wird beispielsweise für die Klima- und seismische Modellierung verwendet, was es ermöglicht, genauere Daten zur Vorhersage von Erdbeben und Klimawandel zu erhalten.

Supercomputer Mira

4. K-Computer

  • Standort: Japan
  • Leistung: 10,51 Petaflops
  • Theoretische Höchstleistung: 11,28 Petaflops
  • Leistung: 12,6 MW

Der von Fujitsu entwickelte und am Institut für physikalisch-chemische Forschung in Kobe angesiedelte K-Computer ist der einzige japanische Supercomputer, der in den Top Ten der Top 500 erscheint.

Dieser Cluster belegte einst (Juni 2011) den ersten Platz im Ranking und wurde ein Jahr lang zum produktivsten Computer der Welt. Und im November 2011 erreichte K Computer als erster in der Geschichte eine Leistung von über 10 Petaflops.

Der Supercomputer wird für eine Reihe von Forschungsaufgaben eingesetzt. Zum Beispiel für die Vorhersage von Naturkatastrophen (was für Japan aufgrund der erhöhten seismischen Aktivität der Region und der hohen Anfälligkeit des Landes im Falle eines Tsunamis wichtig ist) und Computermodellierung im medizinischen Bereich.

Supercomputer K

3. Mammutbaum – Blaues Gen/Q

  • Standort: USA
  • Leistung: 17,17 Petaflops
  • Theoretische Höchstleistung: 20,13 Petaflops
  • Leistung: 7,8 MW

Der leistungsstärkste der vier Supercomputer der Blue Gene/Q-Familie, die zu den Top Ten der Bewertung gehören, steht in den USA im Livermore National Laboratory. IBM entwickelte Sequoia für die National Nuclear Security Administration (NNSA), die einen Hochleistungscomputer für einen ganz bestimmten Zweck benötigte: die Simulation nuklearer Explosionen.

Es ist erwähnenswert, dass echte Atomtests seit 1963 verboten sind und Computersimulationen eine der akzeptablen Optionen für die Fortsetzung der Forschung auf diesem Gebiet sind.

Die Leistung des Supercomputers wurde jedoch zur Lösung anderer, viel edlerer Probleme genutzt. So gelang es dem Cluster beispielsweise, Leistungsrekorde bei der kosmologischen Modellierung sowie bei der Erstellung eines elektrophysiologischen Modells des menschlichen Herzens aufzustellen.

Sequoia-Supercomputer

2. Titan – Cray XK7

  • Standort: USA
  • Leistung: 17,59 Petaflops
  • Theoretische Höchstleistung: 27,11 Petaflops
  • Leistung: 8,2 MW

Der produktivste Supercomputer, der jemals im Westen gebaut wurde, sowie der leistungsstärkste Computercluster unter der Marke Cray stehen in den Vereinigten Staaten im Oak Ridge National Laboratory. Obwohl der dem US-Energieministerium zur Verfügung stehende Supercomputer offiziell für jede wissenschaftliche Forschung zur Verfügung steht, überstieg die Zahl der Anwendungen im Oktober 2012, als Titan auf den Markt kam, alle Grenzen.

Aus diesem Grund wurde im Oak Ridge Laboratory eine Sonderkommission einberufen, die aus 50 Bewerbungen nur sechs der „fortschrittlichsten“ Projekte auswählte. Dazu gehören beispielsweise die Modellierung des Verhaltens von Neutronen im Herzen eines Kernreaktors sowie die Vorhersage globaler Klimaveränderungen für die nächsten 1 bis 5 Jahre.

Trotz seiner Rechenleistung und beeindruckenden Abmessungen (404 Quadratmeter) hielt Titan nicht lange auf dem Podest. Nur sechs Monate nach dem Triumph im November 2012 wurde der amerikanische Stolz auf dem Gebiet des Hochleistungsrechnens unerwartet von einem aus dem Osten stammenden Mann abgelöst, der die bisherigen Spitzenreiter der Rangliste in beispielloser Weise übertraf.

Supercomputer Titan

1. Tianhe-2 / Milchstraße-2

  • Standort: China
  • Leistung: 33,86 Petaflops
  • Theoretische Höchstleistung: 54,9 Petaflops
  • Leistung: 17,6 MW

Seit seinem ersten Start ist Tianhe-2 oder Milchstraße 2 etwa zwei Jahre lang der Spitzenreiter der Top-500. Dieses Monster ist fast doppelt so leistungsstark wie die Nr. 2 im Ranking – der Supercomputer TITAN.

Tianhe-2 wurde von der Universität für Verteidigungswissenschaft und -technologie der Volksbefreiungsarmee und Inspur entwickelt und besteht aus 16.000 Knoten mit einer Gesamtzahl von Kernen von 3,12 Millionen. Der Arbeitsspeicher dieser kolossalen Struktur, die 720 Quadratmeter einnimmt, beträgt 1,4 Petabyte und das Speichergerät 12,4 Petabyte.

Milky Way 2 wurde auf Initiative der chinesischen Regierung entworfen, daher ist es nicht verwunderlich, dass seine beispiellose Leistung offenbar den Bedürfnissen des Staates dient. Es wurde offiziell erklärt, dass der Supercomputer an verschiedenen Simulationen beteiligt ist, riesige Datenmengen analysiert und die nationale Sicherheit Chinas gewährleistet.

Angesichts der Geheimhaltung, die chinesischen Militärprojekten innewohnt, kann man nur vermuten, welchen Nutzen die Milchstraße 2 von Zeit zu Zeit in den Händen der chinesischen Armee erhält.

Supercomputer Tianhe-2

Startseite → Geschichte der heimischen Computertechnologie → Supercomputer

Supercomputer

Andrey Borzenko

Supercomputer sind die schnellsten Computer. Ihr Hauptunterschied zu Großrechnern besteht darin, dass alle Ressourcen eines solchen Computers in der Regel darauf ausgerichtet sind, eine oder zumindest mehrere Aufgaben so schnell wie möglich zu lösen, während Großrechner in der Regel eine relativ große Anzahl von Aufgaben ausführen, die miteinander konkurrieren andere. Die rasante Entwicklung der Computerindustrie bestimmt die Relativität des Grundkonzepts – was vor zehn Jahren noch als Supercomputer bezeichnet werden konnte, fällt heute nicht mehr unter diese Definition. Es gibt auch eine humorvolle Definition eines Supercomputers: Es handelt sich um ein Gerät, das das Rechenproblem auf ein Input-Output-Problem reduziert. Es ist jedoch etwas Wahres dran: Der einzige Engpass in einem Hochgeschwindigkeitssystem sind oft die I/O-Geräte. Welche Supercomputer derzeit über die maximale Leistung verfügen, können Sie der offiziellen Liste der fünfhundert leistungsstärksten Systeme der Welt – Top500 (http://www.top500.org) – entnehmen, die zweimal im Jahr veröffentlicht wird.

In jedem Computer sind alle wichtigen Parameter eng miteinander verbunden. Es ist schwer, sich einen Universalcomputer mit hoher Leistung und wenig RAM oder riesigem RAM und wenig Speicherplatz vorzustellen. Aus diesem Grund zeichnen sich Supercomputer derzeit nicht nur durch maximale Leistung, sondern auch durch die maximale Menge an RAM und Festplattenspeicher aus. Die Bereitstellung solcher technischen Eigenschaften ist recht kostspielig – die Kosten für Supercomputer sind extrem hoch. Welche Aufgaben sind so wichtig, dass sie Systeme erfordern, die Dutzende oder Hunderte Millionen Dollar kosten? In der Regel handelt es sich um grundlegende wissenschaftliche oder ingenieurwissenschaftliche Rechenprobleme mit einem breiten Anwendungsspektrum, deren effektive Lösung nur mit der Verfügbarkeit leistungsstarker Rechenressourcen möglich ist. Hier sind nur einige Bereiche, in denen diese Art von Problem auftritt:

  • Vorhersagen von Wetter, Klima und globalen Veränderungen in der Atmosphäre;
  • Materialwissenschaften;
  • Bau von Halbleiterbauelementen;
  • Supraleitung;
  • Strukturbiologie;
  • Entwicklung von Arzneimitteln;
  • Humangenetik;
  • Quantenchromodynamik;
  • Astronomie;
  • Automobilindustrie;
  • Transportaufgaben;
  • Hydro- und Gasdynamik;
  • kontrollierte Kernfusion;
  • Effizienz von Kraftstoffverbrennungssystemen;
  • Öl- und Gasexploration;
  • Rechenprobleme in den Meereswissenschaften;
  • Spracherkennung und -synthese;
  • Bilderkennung.

Supercomputer rechnen nicht nur durch den Einsatz modernster Elementbasis, sondern auch durch neue Lösungen in der Systemarchitektur sehr schnell. Im Vordergrund steht dabei das Prinzip der parallelen Datenverarbeitung, das die Idee der gleichzeitigen (parallelen) Ausführung mehrerer Aktionen verkörpert. Es gibt zwei Arten der Parallelverarbeitung: Pipeline und tatsächliche Parallelität. Das Wesen der Pipeline-Verarbeitung besteht darin, einzelne Phasen der Ausführung einer allgemeinen Operation hervorzuheben, und jede Phase übergibt nach Abschluss ihrer Arbeit das Ergebnis an die nächste und akzeptiert gleichzeitig einen neuen Teil der Eingabedaten. Ein offensichtlicher Gewinn an Verarbeitungsgeschwindigkeit wird durch die Kombination zuvor beabstandeter Operationen erzielt.

Wenn ein bestimmtes Gerät eine Operation pro Zeiteinheit ausführt, führt es in tausend Einheiten tausend Operationen aus. Wenn fünf identische unabhängige Geräte vorhanden sind, die gleichzeitig arbeiten können, kann ein System aus fünf Geräten dieselben tausend Vorgänge nicht in tausend, sondern in zweihundert Zeiteinheiten ausführen. Ebenso wird ein System aus N Geräten die gleiche Arbeit in 1000/N Zeiteinheiten ausführen.

Natürlich sind heutzutage nur wenige Menschen von der Parallelität in der Computerarchitektur überrascht. Alle modernen Mikroprozessoren verwenden irgendeine Form der Parallelverarbeitung, sogar innerhalb desselben Chips. Gleichzeitig sind diese Ideen selbst schon vor sehr langer Zeit aufgetaucht. Ursprünglich wurden sie auf den fortschrittlichsten und damit einzigen Computern ihrer Zeit implementiert. Hier gebührt IBM und der Control Data Corporation (CDC) besondere Anerkennung. Wir sprechen über Innovationen wie bitparallelen Speicher, bitparallele Arithmetik, unabhängige Eingabe-/Ausgabeprozessoren, Befehlspipeline, Pipeline-unabhängige Funktionseinheiten usw.

Normalerweise wird das Wort „Supercomputer“ mit Cray-Computern in Verbindung gebracht, obwohl dies heute bei weitem nicht mehr der Fall ist. Der Entwickler und Chefdesigner des ersten Supercomputers war Seymour Cray, eine der legendärsten Figuren der Computerindustrie. 1972 verließ er CDC und gründete sein eigenes Unternehmen, Cray Research. Der erste Supercomputer, CRAY-1, wurde vier Jahre später (1976) entwickelt und verfügte über eine Vektor-Pipeline-Architektur mit 12 Pipeline-Funktionseinheiten. Die Spitzenleistung des Cray-1 betrug 160 MT/s (12,5 ns Taktzeit), und der 64-Bit-RAM (der auf 8 MB erweitert werden konnte) hatte eine Zykluszeit von 50 ns. Die wichtigste Neuerung war natürlich die Einführung von Vektorbefehlen, die mit ganzen Arrays unabhängiger Daten arbeiten und eine effiziente Nutzung von Pipeline-Funktionsgeräten ermöglichen.

In den 60er und 80er Jahren konzentrierte sich die Aufmerksamkeit der weltweit führenden Hersteller von Supercomputern auf die Produktion von Computersystemen, die sich gut für die Lösung großvolumiger Gleitkommaprobleme eigneten. An solchen Aufgaben mangelte es nicht – fast alle standen im Zusammenhang mit der Kernforschung und der Modellierung der Luft- und Raumfahrt und wurden im Interesse des Militärs durchgeführt. Der Wunsch, maximale Leistung in möglichst kurzer Zeit zu erreichen, führte dazu, dass nicht der Preis, sondern die Leistung das Kriterium für die Beurteilung der Qualität eines Systems war. Beispielsweise kostete der Supercomputer Cray-1 je nach Konfiguration zwischen 4 und 11 Millionen Dollar.

An der Wende der 80er und 90er Jahre. Der Kalte Krieg endete und militärische Befehle wurden durch kommerzielle ersetzt. Zu diesem Zeitpunkt hatte die Industrie große Fortschritte bei der Produktion serieller Prozessoren gemacht. Sie hatten ungefähr die gleiche Rechenleistung wie kundenspezifische, waren aber deutlich günstiger. Durch den Einsatz von Standardkomponenten und einer variablen Anzahl von Prozessoren konnte das Skalierbarkeitsproblem gelöst werden. Mit zunehmender Rechenlast war es nun möglich, die Leistung des Supercomputers und seiner Peripheriegeräte durch den Einbau neuer Prozessoren und I/O-Geräte zu steigern. So erschien 1990 der Supercomputer Intel iPSC/860 mit einer Prozessorzahl von 128, der beim LINPACK-Test eine Leistung von 2,6 Gflops zeigte.

Im vergangenen November erschien die 18. Ausgabe der Liste der 500 leistungsstärksten Computer der Welt – Top500. An der Spitze der Liste steht nach wie vor die IBM Corporation (http://www.ibm.com), die 32 % der installierten Systeme und 37 % der Gesamtproduktivität besitzt. Eine interessante Neuigkeit war der Aufstieg von Hewlett-Packard auf den zweiten Platz hinsichtlich der Anzahl der Systeme (30 %). Da alle diese Systeme außerdem relativ klein sind, beträgt ihre Gesamtleistung nur 15 % der gesamten Liste. Nach der Fusion mit Compaq dürfte das neue Unternehmen die Liste dominieren. Gemessen an der Anzahl der Computer auf der Liste folgen SGI, Cray und Sun Microsystems.

Der leistungsstärkste Supercomputer der Welt war immer noch das ASCI White-System (wir werden später darauf zurückkommen), das im Livermore Laboratory (USA) installiert wurde und beim LINPACK-Test eine Leistung von 7,2 Tflops zeigte (58 % der Spitzenleistung). Den zweiten Platz belegte das im Pittsburgh Supercomputing Center installierte Compaq AlphaServer SC-System mit einer Leistung von 4 Tflops. Das Cray T3E-System schließt die Liste mit einer LINPACK-Leistung von 94 Gflops ab.

Bemerkenswert ist, dass die Liste bereits 16 Systeme mit einer Leistung von mehr als 1 Teraflops umfasste, von denen die Hälfte von IBM installiert wurde. Die Zahl der Systeme, die Cluster aus kleinen SMP-Blöcken sind, nimmt stetig zu – mittlerweile sind 43 solcher Systeme auf der Liste. Der Großteil der Liste entfällt jedoch immer noch auf massiv parallele Systeme (50 %), gefolgt von Clustern bestehend aus großen SMP-Systemen (29 %).

Arten von Architekturen

Der Hauptparameter zur Klassifizierung paralleler Computer ist das Vorhandensein von gemeinsam genutztem oder verteiltem Speicher. Etwas dazwischen liegen Architekturen, bei denen der Speicher physisch verteilt, aber logisch gemeinsam genutzt wird. Aus Hardware-Sicht bieten sich zwei Hauptschemata zur Implementierung paralleler Systeme an. Das erste System besteht aus mehreren separaten Systemen mit lokalem Speicher und lokalen Prozessoren, die in einer bestimmten Umgebung durch das Senden von Nachrichten interagieren. Das zweite sind Systeme, die über Shared Memory interagieren. Ohne vorerst auf technische Details einzugehen, wollen wir ein paar Worte zu den Architekturtypen moderner Supercomputer sagen.

Die Idee massiv paralleler Systeme mit verteiltem Speicher (Massively Parallel Processing, MPP) ist recht einfach. Zu diesem Zweck werden gewöhnliche Mikroprozessoren verwendet, die jeweils mit einem eigenen lokalen Speicher ausgestattet und über eine Art Schaltmedium verbunden sind. Eine solche Architektur bietet viele Vorteile. Wenn Sie eine hohe Leistung benötigen, können Sie weitere Prozessoren hinzufügen, und wenn die finanziellen Mittel begrenzt sind oder die erforderliche Rechenleistung im Voraus bekannt ist, ist es einfach, die optimale Konfiguration auszuwählen. Allerdings hat MPP auch Nachteile. Tatsache ist, dass die Interaktion zwischen Prozessoren viel langsamer ist als die Datenverarbeitung durch die Prozessoren selbst.

Bei Parallelrechnern mit Shared Memory wird der gesamte Arbeitsspeicher von mehreren identischen Prozessoren gemeinsam genutzt. Dadurch werden die Probleme der vorherigen Klasse beseitigt, aber neue hinzugefügt. Fakt ist, dass die Zahl der Prozessoren mit Zugriff auf Shared Memory aus rein technischen Gründen nicht groß gemacht werden kann.

Die Hauptmerkmale von Vektor-Pipeline-Computern sind natürlich Pipeline-Funktionseinheiten und eine Reihe von Vektoranweisungen. Im Gegensatz zum herkömmlichen Ansatz arbeiten Vektorbefehle mit ganzen Arrays unabhängiger Daten, was ein effizientes Laden verfügbarer Pipelines ermöglicht.

Die letzte Richtung ist streng genommen nicht unabhängig, sondern eine Kombination der vorherigen drei. Ein Rechenknoten wird aus mehreren Prozessoren (traditionell oder Vektor-Pipeline) und ihrem gemeinsamen Speicher gebildet. Reicht die gewonnene Rechenleistung nicht aus, werden mehrere Knoten mit Hochgeschwindigkeitskanälen kombiniert. Wie Sie wissen, wird eine solche Architektur als Cluster bezeichnet.

MPP-Systeme

Massiv parallel skalierbare Systeme sollen Anwendungsprobleme lösen, die einen hohen Rechen- und Datenverarbeitungsaufwand erfordern. Schauen wir sie uns genauer an. Sie bestehen in der Regel aus homogenen Rechenknoten, darunter:

  • eine oder mehrere Zentraleinheiten;
  • lokaler Speicher (ein direkter Zugriff auf den Speicher anderer Knoten ist nicht möglich);
  • Kommunikationsprozessor oder Netzwerkadapter;
  • manchmal Festplatten und/oder andere Ein-/Ausgabegeräte.

Darüber hinaus können dem System spezielle I/O-Knoten und Steuerknoten hinzugefügt werden. Sie sind alle über ein Kommunikationsmedium (Hochgeschwindigkeitsnetzwerk, Switch usw.) verbunden. Was das Betriebssystem betrifft, gibt es zwei Möglichkeiten. Im ersten Fall läuft ein vollwertiges Betriebssystem nur auf der Steuerungsmaschine, während auf jedem Knoten eine stark reduzierte Version des Betriebssystems ausgeführt wird, die nur den Betrieb des darin befindlichen Zweigs der parallelen Anwendung bereitstellt. In einem anderen Fall führt jeder Knoten ein vollwertiges UNIX-ähnliches Betriebssystem aus.

Die Anzahl der Prozessoren in verteilten Speichersystemen ist theoretisch unbegrenzt. Mit solchen Architekturen ist es möglich, skalierbare Systeme aufzubauen, deren Leistung linear mit der Anzahl der Prozessoren steigt. Der Begriff „massiv parallele Systeme“ selbst wird übrigens üblicherweise für solche skalierbaren Computer mit einer großen Anzahl (Dutzende und Hunderte) von Knoten verwendet. Die Skalierbarkeit eines Computersystems ist notwendig, um Berechnungen proportional zu beschleunigen, reicht aber leider nicht aus. Um einen ausreichenden Gewinn bei der Lösung eines Problems zu erzielen, ist außerdem ein skalierbarer Algorithmus erforderlich, der alle Prozessoren eines Supercomputers mit nützlichen Berechnungen belasten kann.

Erinnern wir uns daran, dass es auf Multiprozessorsystemen zwei Modelle der Programmausführung gibt: SIMD (Single Instruction Stream – Multiple Data Streams) und MIMD (Multiple Instruction Streams – Multiple Data Streams). Die erste geht davon aus, dass alle Prozessoren denselben Befehl ausführen, jedoch jeder mit seinen eigenen Daten. Im zweiten Fall verarbeitet jeder Prozessor seinen eigenen Befehlsstrom.

In verteilten Speichersystemen ist zur Übertragung von Informationen von Prozessor zu Prozessor ein Mechanismus zum Weiterleiten von Nachrichten über ein Netzwerk erforderlich, das Rechenknoten verbindet. Um von den Einzelheiten der Funktionsweise von Kommunikationsgeräten und -programmen auf hoher Ebene zu abstrahieren, werden üblicherweise Nachrichtenübermittlungsbibliotheken verwendet.

Intel-Supercomputer

Intel Corporation (http://www.intel.com) ist in der Welt der Supercomputer bekannt. Seine Paragon-Multiprozessorcomputer mit verteiltem Speicher sind ebenso klassisch geworden wie die Vektor-Pipeline-Computer von Cray Research.

Intel Paragon nutzt fünf i860 XP-Prozessoren mit einer Taktfrequenz von 50 MHz in einem Knoten. Manchmal werden Prozessoren verschiedener Typen in einem Knoten platziert: Skalar-, Vektor- und Kommunikationsprozessoren. Letzteres dient dazu, den Hauptprozessor von Vorgängen im Zusammenhang mit der Nachrichtenübertragung zu entlasten.

Das wichtigste Merkmal der neuen Parallelarchitektur ist die Art der Kommunikationsausrüstung. Die beiden wichtigsten Indikatoren für den Betrieb eines Supercomputers hängen davon ab: die Geschwindigkeit der Datenübertragung zwischen Prozessoren und der Overhead für die Übertragung einer Nachricht.

Die Verbindung ist so konzipiert, dass sie hohe Nachrichtengeschwindigkeiten bei minimaler Latenz bietet. Es ermöglicht die Verbindung von mehr als tausend heterogenen Knoten entlang einer zweidimensionalen rechteckigen Gittertopologie. Für die meisten Anwendungsentwicklungen kann jedoch davon ausgegangen werden, dass jeder Knoten direkt mit allen anderen Knoten verbunden ist. Die Verbindung ist skalierbar: Ihr Durchsatz steigt mit der Anzahl der Knoten. Beim Entwurf versuchten die Entwickler, die Beteiligung der Prozessoren, die Benutzerprozesse ausführen, an der Nachrichtenübertragung zu minimieren. Zu diesem Zweck wurden spezielle Naceingeführt, die sich auf dem Knotenboard befinden und für die Verarbeitung des Nachrichtenprotokolls verantwortlich sind. Dadurch werden die Hauptprozessoren der Knoten nicht von der Lösung des Problems abgelenkt. Insbesondere entfällt das aufwändige Wechseln von Aufgabe zu Aufgabe und die Lösung angewandter Probleme erfolgt parallel zum Nachrichtenaustausch.

Die eigentliche Übertragung der Nachrichten erfolgt durch ein Routing-System, das auf den Komponenten der Router von Netzwerkknoten (Mesh Router Components, MRC) basiert. Für den MRC-Zugriff eines bestimmten Knotens auf seinen Speicher verfügt der Knoten außerdem über einen speziellen Schnittstellen-Netzwerkcontroller, bei dem es sich um einen benutzerdefinierten VLSI handelt, der die gleichzeitige Übertragung zum und vom Speicher des Knotens sowie die Überwachung von Fehlern während der Nachrichtenübertragung ermöglicht.

Das modulare Design von Intel Paragon unterstützt nicht nur die Skalierbarkeit. Dadurch können wir davon ausgehen, dass diese Architektur als Grundlage für neue Computer dienen wird, die auf anderen Mikroprozessoren basieren oder neue Messaging-Technologien verwenden. Die Skalierbarkeit hängt auch vom Ausgleich der verschiedenen Blöcke eines Supercomputers auf verschiedenen Ebenen ab; andernfalls kann es mit zunehmender Knotenzahl irgendwo im System zu einem Engpass kommen. Somit werden die Geschwindigkeit und die Speicherkapazität der Knoten mit der Bandbreite und Latenz der Verbindung in Einklang gebracht, und die Leistung der Prozessoren innerhalb der Knoten wird mit der Bandbreite des Cache-Speichers und des RAM usw. ausgeglichen.

Bis vor kurzem war Intel ASCI Red einer der schnellsten Computer – die Idee der Accelerated Strategic Computing Initiative ASCI (Accelerated Strategic Computing Initiative). An diesem Programm nehmen die drei größten nationalen US-Labore (Livermore, Los Alamos und Sandia) teil. ASCI Red wurde 1997 für das US-Energieministerium gebaut und vereint 9152 Pentium Pro-Prozessoren, verfügt über 600 GB Gesamt-RAM und eine Gesamtleistung von 1800 Milliarden Operationen pro Sekunde.

IBM-Supercomputer

Als universelle Systeme mit skalierbarer paralleler Architektur SP (Scalable POWER parallel) der IBM Corporation (http://www.ibm.com) auf dem Computermarkt auftauchten, gewannen sie schnell an Popularität. Heutzutage werden solche Systeme in einer Vielzahl von Anwendungsbereichen eingesetzt, beispielsweise in der Computerchemie, Unfallanalyse, Entwurf elektronischer Schaltkreise, seismischer Analyse, Reservoirmodellierung, Entscheidungsunterstützung, Datenanalyse und Online-Transaktionsverarbeitung. Der Erfolg von SP-Systemen wird in erster Linie durch ihre Vielseitigkeit sowie die Flexibilität der Architektur bestimmt, die auf einem verteilten Speichermodell mit Nachrichtenübermittlung basiert.

Im Allgemeinen ist ein SP-Supercomputer ein skalierbares, massiv paralleles Allzweck-Rechnersystem, das aus einer Reihe von RS/6000-Basisstationen besteht, die über einen Hochleistungsschalter verbunden sind. Wer kennt zum Beispiel nicht den Supercomputer Deep Blue, der es geschafft hat, Garry Kasparov im Schach zu schlagen? Eine seiner Modifikationen besteht jedoch aus 32 Knoten (IBM RS/6000 SP), basierend auf 256 P2SC-Prozessoren (Power Two Super Chip).

Die RS/6000-Familie ist IBMs zweite Computergeneration und basiert auf der Limited Instruction Set Architecture (RISC), die das Unternehmen Ende der 1970er Jahre entwickelt hat. Bei diesem Konzept wird ein sehr einfacher Befehlssatz verwendet, um die gesamte Arbeit in einem Computersystem zu erledigen. Da die Befehle einfach sind, können sie mit sehr hoher Geschwindigkeit ausgeführt werden und sorgen außerdem für eine effizientere Implementierung des ausführbaren Programms. Die RS/6000-Familie basiert auf der POWER-Architektur (Performance Optimized by Advanced RISC Architecture) und ihren Derivaten – PowerPC, P2SC, POWER3 usw. Da die POWER-Architektur RISC-Architekturkonzepte mit einigen traditionelleren Konzepten kombiniert, ist das Ergebnis ein System mit optimale Gesamtleistung.

Das RS/6000 SP-System bietet die Leistung mehrerer Prozessoren zur Lösung der komplexesten Rechenprobleme. Das SP-Switching-System ist IBMs neueste Innovation im Bereich der latenzfreien Interprozessorkommunikation mit hoher Bandbreite für effizientes Parallelrechnen. Mehrere Arten von Prozessorknoten, variable Rahmengrößen (Rack) und eine Vielzahl zusätzlicher I/O-Funktionen gewährleisten die Auswahl der am besten geeigneten Systemkonfiguration. SP wird von führenden Softwareanbietern in Bereichen wie parallele Datenbanken und Echtzeit-Transaktionsverarbeitung sowie von großen technischen Softwareanbietern in Bereichen wie seismischer Verarbeitung und technischem Design unterstützt.

IBM RS/6000 SP erweitert die Anwendungsfunktionen durch Parallelverarbeitung. Das System beseitigt Leistungseinschränkungen und hilft, Probleme im Zusammenhang mit der Skalierung und dem Vorhandensein unteilbarer, separat ausgeführter Fragmente zu vermeiden. Mit über tausend installierten Kunden weltweit bieten SPs Lösungen für komplexe und großvolumige technische und kommerzielle Anwendungen.

Die SP-Haupteinheit ist ein Prozessorknoten mit einer RS/6000-Workstation-Architektur. Es gibt verschiedene Arten von SP-Knoten: Thin, Wide, High, die sich in einer Reihe technischer Parameter unterscheiden. Beispielsweise umfassen auf POWER3-II basierende High-Knoten bis zu 16 Prozessoren und bis zu 64 GB Speicher, während Thin-Knoten nicht mehr als 4 Prozessoren und 16 GB Speicher zulassen.

Das System ist auf bis zu 512 Knoten skalierbar und es ist möglich, verschiedene Knotentypen zu kombinieren. Die Knoten werden in Racks installiert (jeweils bis zu 16 Knoten). SP kann Festplatten zusammen mit Prozessoren und Speicher nahezu linear skalieren und ermöglicht so den echten Zugriff auf Terabytes an Speicher. Diese Leistungssteigerung erleichtert den Aufbau und die Erweiterung des Systems.

Die Knoten werden durch einen Hochleistungs-Switch (IBM Hochleistungs-Switch) miteinander verbunden, der mehrstufig aufgebaut ist und mit Paketvermittlung arbeitet.

Auf jedem SP-Knoten wird ein vollständiges AIX-Betriebssystem ausgeführt, sodass Sie Tausende bereits vorhandener AIX-Anwendungen nutzen können. Darüber hinaus können Systemknoten zu Gruppen zusammengefasst werden. Beispielsweise können mehrere Knoten als Lotus-Notes-Server fungieren, während alle anderen eine parallele Datenbank verarbeiten.

Die Verwaltung großer Systeme ist immer eine herausfordernde Aufgabe. SP verwendet zu diesem Zweck eine einzige grafische Konsole, die Hardware- und Softwarezustände, laufende Aufgaben und Benutzerinformationen anzeigt. Der Systemadministrator löst mithilfe einer solchen Konsole (Steuerungsarbeitsstation) und des an den SP angeschlossenen Softwareprodukts PSSP (Parallel Systems Support Programs) Verwaltungsaufgaben, einschließlich der Verwaltung des Passwortschutzes und der Benutzerberechtigungen, der Abrechnung ausgeführter Aufgaben, der Druckverwaltung und der Systemüberwachung , Starten und Ausschalten des Systems.

Der beste

Wie bereits erwähnt, ist laut Top500 (Tabelle) der leistungsstärkste Supercomputer unserer Zeit ASCI White, der eine Fläche von der Größe von zwei Basketballplätzen einnimmt und im Livermore National Laboratory installiert ist. Es umfasst 512 SMP-Knoten basierend auf 64-Bit-POWER3-II-Prozessoren (insgesamt 8192 Prozessoren) und nutzt die neue Colony-Kommunikationstechnologie mit einem Durchsatz von etwa 500 MB/s, was fast viermal schneller ist als die SP-Hochleistung schalten.

Top Ten Top500 (18. Ausgabe)

Position Hersteller Computer Wo installiert Ein Land Jahr Anzahl der Prozessoren
1 IBM ASCI Weiß USA 2000 8192
2 Compaq AlphaServer SC Pittsburgh Supercomputing Center USA 2001 3024
3 IBM SP Power3 NERSC Energieforschungsinstitut USA 2001 3328
4 Intel ASCI-Rot Sandia National Laboratory USA 1999 9632
5 IBM ASCI Blue Pacific Livermore National Laboratory USA 1999 5808
6 Compaq AlphaServer SC USA 2001 1536
7 Hitachi SR8000/MPP Universität Tokio Japan 2001 1152
8 SGI ASCI Blue Mountain Nationallabor Los Alamos USA 1998 6144
9 IBM SP Power3 Ozeanographisches Zentrum NAVOCEANO USA 2000 1336
10 IBM SP Power3 Deutscher Wetterdienst Deutschland 2001 1280

Die Architektur des neuen Supercomputers basiert auf der bewährten massiv parallelen RS/6000-Architektur und bietet eine Leistung von 12,3 Teraflops (Billionen Operationen pro Sekunde). Das System umfasst insgesamt 8 TB RAM, verteilt auf SMP-Knoten mit 16 Prozessoren, und 160 TB Festplattenspeicher. Für die Lieferung des Systems von den IBM-Laboren im Bundesstaat New York nach Livermore, Kalifornien, waren 28 LKW-Anhänger erforderlich.

Auf allen Systemknoten wird das Betriebssystem AIX ausgeführt. Der Supercomputer wird von Wissenschaftlern des US-Energieministeriums verwendet, um komplexe 3D-Modelle zur Gewährleistung der Sicherheit von Atomwaffen auszuführen. Tatsächlich ist ASCI White der dritte Schritt im fünfstufigen Programm von ASCI, das die Schaffung eines neuen Supercomputers im Jahr 2004 vorsieht. Im Allgemeinen besteht ASCI White aus drei separaten Systemen, von denen White das größte ist (512 Knoten, 8192 Prozessoren). und es gibt auch Ice (28 Knoten, 448 Prozessoren) und Frost (68 Knoten, 1088 Prozessoren).

Der Vorgänger von ASCI White war der Supercomputer Blue Pacific (ein anderer Name für ASCI Blue), der 1464 Vierprozessorknoten auf Basis von PowerPC 604e/332 MHz-Quarzen umfasste. Die Knoten sind über Kabel mit einer Gesamtlänge von fast fünf Meilen zu einem einzigen System verbunden, und die Fläche des Computerraums beträgt 8.000 Quadratfuß. Das ASCI Blue-System besteht aus insgesamt 5856 Prozessoren und bietet eine Spitzenleistung von 3,88 Teraflops. Die Gesamtmenge an RAM beträgt 2,6 TB.

Ein Supercomputer besteht aus kilometerlangen Kabeln.

Das US-amerikanische National Center for Atmospheric Research (NCAR) hat IBM als Lieferanten des weltweit leistungsstärksten Supercomputers zur Vorhersage des Klimawandels ausgewählt. Das als Blue Sky bekannte System wird die Klimamodellierungskapazitäten von NCAR um eine Größenordnung steigern, wenn es in diesem Jahr vollständig in Betrieb geht. Der Kern von Blue Sky wird der Supercomputer IBM SP und die Systeme IBM eServer p690 sein, deren Einsatz eine Spitzenleistung von fast 7 Tflops bei einem Volumen des IBM SSA-Festplattensubsystems von 31,5 TB erreichen wird.

Der Supercomputer namens Blue Storm wird im Auftrag des Europäischen Zentrums für mittelfristige Wettervorhersage (ECMWF) entwickelt. Blue Storm wird doppelt so stark sein wie ASCI White. Um es zu erstellen, benötigen Sie 100 IBM eServer p690-Server, auch Regatta genannt. Jede Systemeinheit von der Größe eines Kühlschranks enthält mehr als tausend Prozessoren. Im Jahr 2004 wird Blue Storm mit p960-Servern der neuen Generation ausgestattet und damit doppelt so leistungsstark. Auf dem Supercomputer wird das Betriebssystem AIX ausgeführt. Die Gesamtkapazität der Blue Storm-Laufwerke beträgt zunächst 1,5 Petabyte und die Rechenleistung etwa 23 Teraflops. Das System wird 130 Tonnen wiegen und 1.700-mal leistungsstärker sein als der Schach-Supercomputer Deep Blue.

IBM-Forscher arbeiten mit dem Livermore National Laboratory an den Computern Blue Gene/L und Blue Gene/C. Diese Computer sind Teil des 5-jährigen Blue Gene-Projekts, das bereits 1999 zur Untersuchung von Proteinen begann und in das 100 Millionen US-Dollar investiert wurden. Die Schaffung eines neuen Supercomputers Blue Gene/L (200 Teraflops) wird 2004 abgeschlossen sein sechs Monate - ein Jahr früher als der erwartete Abschluss der Arbeiten am leistungsstärkeren Blue Gene/C-Computer (1000 Teraflops). Die Designleistung von Blue Gene/L wird damit die Gesamtleistung der 500 leistungsstärksten Computer der Welt übertreffen. Darüber hinaus nimmt der neue Supercomputer eine Fläche ein, die nur einem halben Tennisplatz entspricht. Die IBM-Ingenieure arbeiteten auch daran, den Energieverbrauch zu senken – es gelang ihnen, ihn um das 15-fache zu reduzieren.

Anmerkungen

LINPACK-Tests.
LINPACK-Benchmarks basieren auf der Lösung eines Systems linearer Gleichungen mit einer dichten Koeffizientenmatrix über einem reellen Zahlenfeld mithilfe der Gaußschen Eliminierung. Reelle Zahlen werden normalerweise mit voller Genauigkeit dargestellt. Aufgrund der großen Anzahl an Operationen mit reellen Zahlen gelten die LINPACK-Ergebnisse als Maßstab für die Leistung von Hardware- und Softwarekonfigurationen in Bereichen, in denen komplexe mathematische Berechnungen intensiv eingesetzt werden.

Erdsimulator.
Laut der Zeitschrift New Scientist wird in der neuen, 19. Ausgabe der Top500-Liste der Supercomputer das Supercomputersystem für das Earth Simulator-Projekt der NEC Corporation den ersten Platz belegen. Es ist am japanischen Institut für Geowissenschaften (Yokohama Institute for Earth Sciences) in Kanagawa, Präfektur Yokohama, installiert. Die Entwickler behaupten, dass die Spitzenleistung 40 Tflops erreichen kann.

Der Supercomputer Earth Simulator soll den Klimawandel anhand von Satellitendaten simulieren. Nach Angaben von NEC-Vertretern wird eine hohe Computerleistung durch den Einsatz speziell entwickelter Vektorprozessoren erreicht. Das System basiert auf 5120 solcher Prozessoren, zusammengefasst in 640 SX-6-Knoten (jeweils 8 Prozessoren). Auf dem Supercomputer läuft das Betriebssystem SUPER-UX. Zu den Entwicklungstools gehören Compiler für die Sprachen C/C++, Fortran 90 und HPF sowie automatische Vektorisierungstools, eine Implementierung der MPI-2-Schnittstelle und die mathematische Bibliothek ASL/ES. Die gesamte Maschine nimmt die Fläche von drei Tennisplätzen (50 mal 65 m) ein und nutzt mehrere Kilometer Kabel.

Der Supercomputer K Computer, der zuvor den ersten Platz belegte, wurde auf den dritten Platz verdrängt. Seine Leistung beträgt 11,28 Pflops (siehe Abbildung 1). Erinnern wir uns daran, dass FLOPS (Floating-Point Operations Per Second, FLOPS) eine Maßeinheit für die Computerleistung ist, die angibt, wie viele Gleitkommaoperationen pro Sekunde ein bestimmtes Computersystem ausführen kann.

K Computer ist eine gemeinsame Entwicklung des Rikagaku Kenkiyo Institute of Physical and Chemical Research (RIKEN) und Fujitsu. Es wurde im Rahmen der High-Performance Computing Infrastructure-Initiative des japanischen Ministeriums für Bildung, Kultur, Sport, Wissenschaft und Technologie (MEXT) entwickelt. Der Supercomputer ist auf dem Gelände des Institute of Advanced Computing Sciences in der japanischen Stadt Kobe installiert.

Der Supercomputer basiert auf einer verteilten Speicherarchitektur. Das System besteht aus mehr als 80.000 Rechenknoten und ist in 864 Racks untergebracht, die jeweils 96 Rechenknoten und 6 I/O-Knoten aufnehmen. Die Knoten, die jeweils einen Prozessor und 16 GB RAM enthalten, sind gemäß der Topologie „sechsdimensionale Schleife/Torus“ miteinander verbunden. Das System nutzt insgesamt 88.128 SPARC64 VIIIfx-Prozessoren mit acht Kernen (705.024 Kerne), die von Fujitsu in 45-nm-Technologie hergestellt werden.

Dieser Allzweck-Supercomputer bietet ein hohes Maß an Leistung und Unterstützung für eine Vielzahl von Anwendungen. Das System dient der Forschung in den Bereichen Klimawandel, Katastrophenvorsorge und Medizin.

Das einzigartige Wasserkühlsystem verringert die Wahrscheinlichkeit eines Geräteausfalls und senkt den Gesamtenergieverbrauch. Energieeinsparungen werden durch den Einsatz hocheffizienter Geräte, einer Kraft-Wärme-Kopplungsanlage und einer Reihe von Solarpaneelen erzielt. Darüber hinaus reduziert der Mechanismus zur Wiederverwendung des Abwassers aus dem Kühler die negativen Auswirkungen auf die Umwelt.

Das Gebäude, in dem sich K Computer befindet, ist erdbebensicher und kann Erdbeben der Stärke 6 oder mehr auf der japanischen Skala (0-7) standhalten. Zur effizienteren Unterbringung von Geräteträgern und Kabeln ist das dritte Obergeschoss mit den Maßen 50 × 60 m völlig frei von tragenden Säulen. Moderne Bautechnologien haben es ermöglicht, ein akzeptables Belastungsniveau (bis zu 1 t/m2) für die Installation von Regalen zu gewährleisten, deren Gewicht 1,5 Tonnen erreichen kann.

SEQUOIA SUPERCOMPUTER

Der Sequoia-Supercomputer, installiert im Lawrence Livermore National Laboratory. Lawrence hat eine Leistung von 16,32 Pflops und belegt den zweiten Platz im Ranking (siehe Abbildung 2).

Dieser von IBM auf Basis von Blue Gene/Q entwickelte Petaflop-Supercomputer wurde für die US-amerikanische National Nuclear Security Administration (NNSA) im Rahmen des Advanced Simulation and Computing-Programms entwickelt.

Das System besteht aus 96 Racks und 98.304 Rechenknoten (1024 Knoten pro Rack). Jeder Knoten enthält einen 16-Kern-PowerPC-A2-Prozessor und 16 GB DDR3-RAM. Insgesamt kommen 1.572.864 Prozessorkerne und 1,6 PB Speicher zum Einsatz. Die Knoten sind gemäß der „fünfdimensionalen Torus“-Topologie miteinander verbunden. Die von der Anlage eingenommene Fläche beträgt 280 m2. Der Gesamtenergieverbrauch beträgt 7,9 MW.

Der Supercomputer Sequoia war der erste weltweit, der wissenschaftliche Berechnungen durchführte, die mehr als 10 Pflops Rechenleistung erforderten. So benötigte das Kosmologie-Simulationssystem HACC im 3,6-Billionen-Teilchen-Modus etwa 14 Pflops, und beim Ausführen des Cardiod-Projektcodes zur Simulation der Elektrophysiologie des menschlichen Herzens erreichte die Leistung fast 12 Pflops.

TITAN-SUPERCOMPUTER

Der im Oak Ridge National Laboratory (ORNL) in den USA installierte Titan-Supercomputer galt als der schnellste Supercomputer der Welt. In Linpack-Benchmark-Tests betrug die Leistung 17,59 Pflops.

Titan implementiert eine hybride CPU-GPU-Architektur (siehe Abbildung 3). Das System besteht aus 18.688 Knoten, die jeweils mit einem 16-Kern-AMD-Opteron-Prozessor und einem Nvidia Tesla K20X-Grafikbeschleuniger ausgestattet sind. Insgesamt kommen 560.640 Prozessoren zum Einsatz. Titan ist ein Update des zuvor von ORNL betriebenen Jaguar-Supercomputers und belegt die gleichen Serverschränke (Gesamtfläche 404 m2).

Durch die Möglichkeit, vorhandene Strom- und Kühlsysteme zu nutzen, konnten während des Baus etwa 20 Millionen US-Dollar eingespart werden. Der Stromverbrauch des Supercomputers beträgt 8,2 MW, das sind 1,2 MW mehr als beim Jaguar, während seine Leistung im Gleitkommabetrieb fast zehnmal höher ist.

Titan wird in erster Linie für Forschungen in den Bereichen Materialwissenschaften und Kernenergie sowie für Forschung im Zusammenhang mit der Verbesserung der Effizienz von Verbrennungsmotoren eingesetzt. Darüber hinaus wird es zur Modellierung des Klimawandels und zur Analyse potenzieller Strategien zur Bewältigung seiner negativen Auswirkungen verwendet.

DER „GRÜNSTE“ SUPERCOMPUTER

Neben der Top500-Bewertung, die darauf abzielt, das leistungsstärkste System zu ermitteln, gibt es eine Green500-Bewertung, die die „grünsten“ Supercomputer auszeichnet. Dabei wird die Energieeffizienzkennzahl (Mflops/W) zugrunde gelegt. Spitzenreiter der Green500 ist derzeit (letzte Veröffentlichung der Bewertung ist November 2012) der Supercomputer Beacon (Platz 253 in den Top500). Sein Energieeffizienzindikator beträgt 2499 Mflops/W.

Beacon wird von Intel Xeon Phi 5110P-Coprozessoren und Intel Xeon E5-2670-Prozessoren angetrieben, sodass die Spitzenleistung 112.200 Gflops bei einem Gesamtstromverbrauch von 44,9 kW erreichen kann. Xeon Phi 5110P-Coprozessoren bieten hohe Leistung bei geringem Stromverbrauch. Jeder Coprozessor verfügt über 1 Teraflops Leistung (doppelte Präzision) und unterstützt bis zu 8 GB GDDR5-Speicher mit 320 Gbit/s Bandbreite.

Das passive Kühlsystem des Xeon Phi 5110P hat eine Nennleistung von 225 W TDP, was ideal für Server mit hoher Dichte ist.

SUPERCOMPUTER EURORA

Im Februar 2013 tauchten jedoch Berichte auf, dass der Supercomputer Eurora in Bologna (Italien) Beacon in puncto Energieeffizienz übertraf (3150 Mflops/Watt gegenüber 2499 Mflops/W).

Eurora wird von Eurotech gebaut und besteht aus 64 Knoten, von denen jeder zwei Intel Xeon E5-2687W-Prozessoren, zwei Nvidia Tesla K20 GPU-Beschleuniger und andere Hardware enthält. Die Abmessungen eines solchen Knotens überschreiten nicht die Abmessungen eines Laptops, ihre Leistung ist jedoch 30-mal höher und der Stromverbrauch ist 15-mal geringer.

Eine hohe Energieeffizienz wird in Eurora durch den Einsatz mehrerer Technologien erreicht. Den größten Beitrag leistet die Wasserkühlung. Somit ist jeder Supercomputerknoten eine Art Sandwich: unten eine zentrale Ausrüstung, in der Mitte ein Wasserwärmetauscher und oben eine weitere Elektronikeinheit (siehe Abbildung 4).

Diese hohen Ergebnisse werden durch den Einsatz von Materialien mit guter Wärmeleitfähigkeit sowie einem ausgedehnten Netz von Kühlkanälen erreicht. Bei der Installation eines neuen Rechenmoduls werden dessen Kanäle mit den Kanälen des Kühlsystems kombiniert, wodurch Sie die Konfiguration des Supercomputers je nach spezifischen Anforderungen ändern können. Laut Hersteller ist die Gefahr von Undichtigkeiten ausgeschlossen.

Die Elemente des Eurora-Supercomputers werden von 48-Volt-Gleichstromquellen gespeist, deren Einführung die Anzahl der Energieumwandlungen reduziert hat. Schließlich kann das aus Computergeräten entnommene warme Wasser für andere Zwecke verwendet werden.

ABSCHLUSS

Die Supercomputerindustrie entwickelt sich aktiv weiter und stellt immer neue Rekorde in Bezug auf Leistung und Energieeffizienz auf. Es ist anzumerken, dass in dieser Branche wie nirgendwo sonst Flüssigkeitskühlungs- und 3D-Modellierungstechnologien heute weit verbreitet sind, da Spezialisten vor der Aufgabe stehen, ein superleistungsfähiges Computersystem zusammenzustellen, das in a funktionieren könnte begrenztes Volumen mit minimalen Energieverlusten.

Juri Chomutski- Chefprojektingenieur bei I-Teco. Er ist erreichbar unter: [email protected]. Der Artikel verwendet Materialien aus dem Internetportal über Rechenzentren „www.AboutDC.ru - Solutions for Data Centers“.

Lesezeit: 2 Minuten.

Bisher hat die Menschheit die Müllhalden des Mars nicht erreicht, das Jugendelixier nicht erfunden, Autos können noch nicht über der Erde schweben, aber es gibt einige Bereiche, in denen es uns dennoch gelungen ist. Die Entwicklung leistungsstarker Supercomputer ist ein solcher Bereich. Um die Leistung eines Computers zu bewerten, müssen Sie ermitteln, welcher Schlüsselparameter für diese Eigenschaft verantwortlich ist. Bei diesem Parameter handelt es sich um Flops – ein Wert, der angibt, wie viele Vorgänge ein PC in einer Sekunde ausführen kann. Auf Basis dieses Wertes hat unser Magazin Big Rating die leistungsstärksten Computer der Welt für 2017 bewertet.

Leistung des Supercomputers – 8,1 Pflop/Sek

Dieser Computer speichert Daten, die für die Sicherheit der militärischen Struktur der Vereinigten Staaten verantwortlich sind, und ist bei Bedarf auch für den Stand der Bereitschaft für einen Atomangriff verantwortlich. Vor zwei Jahren war dieses Gerät eines der leistungsstärksten und teuersten der Welt, doch heute wurde Trinity durch neuere Geräte ersetzt. Das System, auf dem dieser Supercomputer läuft, ist Cray XC40, dank dessen das Gerät eine solche Anzahl von Operationen pro Sekunde „durchführen“ kann.

Mira

Leistung des Supercomputers – 8,6 Pflop/Sek

Cray hat einen weiteren Supercomputer herausgebracht, Mira. Das US-Energieministerium ordnete die Produktion dieser Maschine an, um ihre Arbeit zu koordinieren. Der Tätigkeitsbereich von Mira ist die Industrie und die Entwicklung von Forschungspotenzialen. Dieser Supercomputer kann 8,6 Petaflops pro Sekunde berechnen.

Leistung des Supercomputers – 10,5 Pflop/Sek

Der Name dieses Geräts beschreibt sofort die Leistung, das japanische Wort „kei“ (K) bedeutet zehn Billiarden. Diese Zahl beschreibt ziemlich genau seine Produktionskapazität – 10,5 Petaflops. Das Highlight dieses Supercomputers ist sein Kühlsystem. Es kommt eine Wasserkühlung zum Einsatz, die den Verbrauch von Energiereserven reduziert und die Montagegeschwindigkeit reduziert.

Leistung des Supercomputers – 13,6 Pflop/Sek

Fujitsu, ein Unternehmen aus dem Land der aufgehenden Sonne, hörte nicht auf zu arbeiten, nachdem es den Supercomputer K Computer herausgebracht hatte, startete es sofort ein neues Projekt. Bei diesem Projekt handelte es sich um den Supercomputer Oakforest-Pacs, der zur neuen Maschinengeneration (Knights Landing Generation) zählt. Seine Entwicklung wurde von der Universität Tokio und der Tsukuba-Universität in Auftrag gegeben. Nach dem ursprünglichen Plan sollte der Speicher des Geräts 900 TB betragen und die Leistung von Oakforest-Pacs 25 Billiarden Operationen pro Sekunde betragen. Aufgrund fehlender Finanzierung konnten viele Aspekte jedoch nicht finalisiert werden, sodass die Leistung des Supercomputers 13,6 Petaflops pro Sekunde betrug.

Cori

Leistung des Supercomputers – 14 Pflop/Sek

Letztes Jahr lag Cori auf der Liste der leistungsstärksten Supercomputer der Welt auf Platz sechs, verlor aber aufgrund der wahnsinnigen Geschwindigkeit der Technologieentwicklung einen Platz. Dieser Supercomputer befindet sich in den Vereinigten Staaten im Lawrence Berkeley National Laboratory. Wissenschaftlern aus der Schweiz gelang es mit Hilfe von Cori, eine 45-Qubit-Quantencomputermaschine zu entwickeln. Die Produktionskapazität dieses Supercomputers beträgt 14 Petaflops pro Sekunde.

Leistung des Supercomputers – 17,2 Pflop/Sek

Wissenschaftler aus aller Welt sind sich seit langem einig, dass Sequoia der schnellste Supercomputer der Welt ist. Und das ist nicht nur so, denn er ist in der Lage, in einer Sekunde arithmetische Berechnungen durchzuführen, für die 6,7 Milliarden Menschen 320 Jahre brauchen würden. Die Größe der Maschine ist wirklich erstaunlich – sie nimmt mehr als 390 Quadratmeter ein und umfasst 96 Racks. Sechzehntausend Billionen Operationen oder mit anderen Worten 17,2 Petaflops ist die Produktionskapazität dieses Supercomputers.

Titan

Leistung des Supercomputers – 17,6 Pflop/Sek

Er ist nicht nur einer der schnellsten Supercomputer der Welt, sondern auch sehr energieeffizient. Der Energieeffizienzindikator beträgt 2142,77 Megaflops pro Watt Energie, die für den Verbrauch benötigt wird. Der Grund für diesen geringen Stromverbrauch ist der Nvidia-Beschleuniger, der bis zu 90 % der für die Rechenleistung benötigten Leistung bereitstellt. Darüber hinaus hat der Nvidia-Beschleuniger die Fläche dieses Supercomputers deutlich reduziert, jetzt benötigt er nur noch 404 Quadratmeter.

Leistung des Supercomputers – 19,6 Pflop/Sek

Der erste Start dieses Geräts fand 2013 in der Schweiz in der Stadt Lugano statt. Der Standort dieses Supercomputers ist nun das Schweizerische Nationale Hochleistungsrechenzentrum. Piz Daint ist eine Kombination der besten Eigenschaften der oben genannten Maschinen, hat eine sehr hohe Energieeffizienz und ist sehr schnell in den Berechnungen. Nur eine Eigenschaft lässt zu wünschen übrig – die Abmessungen dieses Supercomputers; er belegt 28 riesige Racks. Piz Daint ist in der Lage, 19,6 Petaflops Rechenleistung pro Sekunde zu leisten.

Leistung des Supercomputers – 33,9 Pflop/Sek

Dieses Gerät trägt den romantischen Namen Tianhe, was auf Chinesisch „Milchstraße“ bedeutet. Tianhe-2 war der schnellste Computer auf der Liste der 500 schnellsten und leistungsstärksten Supercomputer. Es kann 2507 Rechenoperationen berechnen, was in Petaflops 33,9 Pflops/Sekunde entspricht. Die Spezialisierung, in der dieser Computer eingesetzt wird, ist das Bauwesen; er berechnet Vorgänge im Zusammenhang mit dem Bau und der Verlegung von Straßen. Seit seiner Ersteinführung im Jahr 2013 hat dieser Computer seinen Platz in den Listen nicht verloren, was beweist, dass er zu den besten Maschinen der Welt gehört.

Leistung des Supercomputers – 93 Pflop/Sek

Sunway TaihuLight ist der schnellste Supercomputer der Welt, neben seiner enormen Rechengeschwindigkeit ist er auch für seine riesigen Ausmaße bekannt – er nimmt eine Fläche von mehr als 1000 Quadratmetern ein. Die internationale Konferenz 2016, die in Deutschland stattfand, erkannte diesen Supercomputer als den schnellsten der Welt an und hat in dieser Hinsicht noch keinen ernsthaften Konkurrenten. Seine Geschwindigkeit ist dreimal höher als die von Tianhe-2, dem in dieser Hinsicht nächstgelegenen Supercomputer!

Der technologische Fortschritt steht nicht still, er entwickelt sich mit kosmischer Geschwindigkeit, beeinflusst viele Aspekte des menschlichen Lebens und hat viele positive und negative Seiten. Mittlerweile stehen den Menschen Technologien verschiedenster Art zur Verfügung: Computer, Roboter und Instrumente. Aber der Hauptzweck jeder Ausrüstung besteht darin, das Leben eines Menschen zu vereinfachen; Technologie sollte nicht zu bedeutungsloser Unterhaltung werden, die nur Ihre Zeit verschwendet.



Aktie