In dem Power Race, das im Zentrum der Chronik der Supercomputer-Entwicklung steht, werden die Projekthistorien weitgehend gelöscht. Führungskräfte schieben sich schnell beiseite, Technologien sind veraltet und nur Übergänge zu einer neuen Ordnung bleiben im Gedächtnis. Heute möchten wir diese Ungerechtigkeit ein wenig korrigieren und von einem einzigartigen Supercomputer erzählen, dessen Geschichte vor achtzehn Jahren begann. Es hieß System X und wurde, könnte man sagen, aus improvisierten Mitteln mit einem unerwartet erfolgreichen Ergebnis zusammengesetzt.
Die Geschichte eines ungewöhnlichen Supercomputers begann im Frühjahr 2003 und hatte Ende Herbst bereits ihren Höhepunkt erreicht. Zu dieser Zeit hat sich das Virginia Polytechnic zum Ziel gesetzt, eine der 30 besten Forschungsuniversitäten in den USA zu sein. Das lokale Team könnte dabei zum einen durch zusätzliche Rechenleistung und zum anderen durch ein helles und einprägsames Projekt unterstützt werden, das breite Aufmerksamkeit erregen könnte. Mit Blick auf die Zukunft sollte gesagt werden, dass der System X-Supercomputer die Erwartungen erfüllt und seinen Entwicklern beides bieten konnte.
Der Name für den Computerkomplex wurde nicht nur wegen seiner Euphonizität gewählt - die Autoren gaben ihm eine doppelte Bedeutung. Erstens spielte die römische Ziffer X auf den Meilenstein von zehn Teraflops an, von dem sie erwarteten, dass er der erste eines universitären Forschungszentrums ist. Zweitens wiederholte X, wenn wir es als Buchstaben verstehen, den Namen des Mac OS X-Betriebssystems und betonte unauffällig das Hauptunterscheidungsmerkmal des Projekts - die Verwendung von Standard-Apple-Prozessoren beim Zusammenbau von Einheiten für einen Supercomputer.
Laut ForschernIn dem Gedanken, dass gewöhnliche Benutzercomputer für das "Füllen" eines fortschrittlichen Computers ausreichen können, wurden sie durch eine hohe Bewertung der technischen Eigenschaften des Apple Power Mac G5-Modells bestätigt: "Die G5 waren in Bezug auf unser System ideal der Architektur: ein 64-Bit-Prozessor mit zwei mathematischen Coprozessoren für die Berechnung mit doppelter Genauigkeit, einer hervorragenden Speicherbandbreite und einer E / A-Architektur, mit der Maschinen zu einem einzigen Supercomputer verbunden werden können. "
Der Supercomputer bestand aus 1100 Knoten, jeder Knoten hat zwei 64-Bit-Prozessoren mit einem Kern und einer Taktrate von 2,0 GHz. Somit hatte das System 2200 Prozessoren / Kerne. Wenig später verbesserte das Team das System, indem es auf Apple Xserve G5-Plattformen und die endgültigen Eigenschaften der Stahlbaugruppe umstellte:
- Bitbreite x64
- Taktfrequenz 2,3 GHz
- Anzahl der Kerne - 2
- Anzahl der Prozessoren - 2
- 4 GB RAM
- 80 GB Festplattenspeicher
Insgesamt verfügte der Supercomputer über 4,4 Terabyte RAM und 88 Terabyte Speicher (HDD). Zusätzlich zum System wurde ein externer Speicher mit einem Volumen von 53 Terabyte angeschlossen. Für die Kommunikation zwischen den Knoten wurde das InfiniBand-Netzwerk verwendet (eine Neuheit zu dieser Zeit) - ein Teil des Projekterfolgs, den die Autoren auf die hohe Bandbreite (20 Gbit / s pro Knoten) in Kombination mit der geringen Latenz (weniger als 8 Mikrosekunden) zurückführten. Die Gigabit-Ethernet-Technologie wurde als Hilfsmittel zur Steuerung des Systems und zur Einleitung des Betriebs verwendet.
Nach den Maßstäben der Welt der Supercomputer hat sich die Geschichte der Entwicklung von System X sehr, sehr schnell entwickelt. Das Gesamtkonzept wurde bis März 2003 festgelegt und das Design im Hochsommer fertiggestellt. Im Juli starteten Universitätsforscher und Studenten sowie rekrutierte Freiwillige den Installations- und Montageprozess. Einige Monate wurden für die Vorbereitungsarbeiten aufgewendet: Installation von Racks, Durchführung aller erforderlichen Kommunikationen für das Kühlsystem ( Hybrid , das zu dieser Zeit auch eine innovative Lösung war), Stromversorgung, Klimaanlage usw. Das Laborpersonal hinterließ eine ziemlich detaillierte Foto-Chronik der Ereignisse, anhand dessen Sie sich ein Bild davon machen können, wie es geschieht und welche Ressourcen erforderlich sind, um einen Supercomputer in einer normalen, funktionierenden Einrichtung zu platzieren. Die Prozessoren und Fälle, die erst im September an die Universität kamen, wurden in weniger als drei Arbeitswochen zusammengebaut und zu einem einzigen System verbunden (nach den Rückmeldungen der Teilnehmer war dies äußerst stressig).
Der Ansturm zahlte sich durch die Tatsache aus, dass die Autoren des Projekts Ende des Jahres Anerkennung fanden: Sie schafften es, in die November-Ausgabe von top500.org einzusteigen - die Weltrangliste der Supercomputer. Die Leistung von System X wurde von Jack Dongarr anhand des HPL-Benchmarks (High-Performance Linpack) bewertet und zeigte sich beeindruckend gegenüber Wettbewerbern mit weitaus soliderem Ruf und besserer Finanzierung. Forschern der Virginia Polytechnic University gelang es, den Supercomputer auf ein Niveau von über 10 Billionen Operationen pro Sekunde zu bringen: Die Leistung von System X betrug 10,28 Teraflops mit einer Spitzenleistung von 20,24 Teraflops.
System X debütierte auf dem dritten Platz der Weltrangliste ... Selbst die Entwickler des Systems hatten ein solches Ergebnis nicht erwartet: Sie glaubten, dass sie im erfolgreichsten Szenario in die Mitte der Top Ten fallen würden. Sie freuten sich jedoch nicht nur über die Tatsache, dass Furore produziert wurden, sondern auch über einen weiteren Ehrentitel, den sie erhielten: "Der leistungsstärkste und billigste Supercomputer, der unter normalen Bedingungen hergestellt wurde."
Die Autoren hofften, dass die Entwicklung der Entwicklung eines neuen Zweigs von "Budget" -Supercomputern Impulse geben würde. Aufgrund der Tatsache, dass vorgefertigte Maschinen als Bausteine verwendet wurden, kostete System X die Polytechnische Universität billig: Alle Ausgaben beliefen sich auf 5,2 Millionen US-Dollar. Zum Vergleich: Der Computerkomplex des Los Alamos National Laboratory, der in der Bewertung um eine Zeile höher eingestuft wurde, war 30% leistungsfähiger, gleichzeitig aber 210 Millionen US-Dollar teurer (41-mal).
« , , . , , 5,2 , , ».
Was ist dann passiert? Wenn wir über das Schicksal von System X selbst sprechen, fuhr er fort und beendete seine Karriere mit Würde. Im Jahr 2004 veröffentlichte das Team eine überarbeitete Version: Ersetzen der Server und Beheben des Pannenproblems aufgrund kosmischer Strahlung, für die Cluster aufgrund der großen Anzahl von Speicherchips besonders anfällig waren. Der aktualisierte Supercomputer hat es geschafft, in den Top Ten von top500.org zu bleiben - er hat die siebte Zeile erhalten. Ende desselben Jahres wurde ein weiteres Update (im Wert von ca. 600.000 US-Dollar) veröffentlicht, mit dem das Team die Leistung auf 12,25 Teraflops übertakten und den vierzehnten Platz in der Rangliste 2005 erreichen konnte.
In den nächsten Jahren sank die Position des Supercomputers im Gesamtranking allmählich (auf siebenundvierzig im Jahr 2006 und zweihundertachtzig im Jahr 2008), aber es blieb immer noch eine der leistungsstärksten Maschinen an der Universität. Im Jahr 2012 funktionierte System X nicht mehr.
Was die Revolution in der finanziellen und logistischen Zugänglichkeit von Supercomputern betrifft, so kann kaum gesagt werden, dass sie stattgefunden hat. System X hatte mehrere Nachfolger; 2005 erschien das Xseed-System der Bowie State University in Maryland, das den einhundertachtundachtzigsten Platz in der Weltrangliste erreichte. Die Polytechnische Universität baute außerdem einen System G-Computerkomplex aus mehr als dreihundert Mac Pro-Computern nach einem bewährten Schema zusammen. Im Allgemeinen sind „halbfertige“ Supercomputer jedoch nicht zu einem Massenphänomen geworden - möglicherweise liegt dies an der Beschleunigung der Technologieentwicklung oder an der allgemeinen Unrentabilität solcher Unternehmen unter normalen Bedingungen. Dennoch darf man nicht vergessen, dass es einen Präzedenzfall gab - vielleicht wird es eines Tages eine andere unternehmungslustige Gruppe von Enthusiasten geben.
Die Geschichte von System X ist bereits heute kein Vorbild mehr, stößt aber immer noch auf Interesse in der Gemeinde. In diesem Jahr haben wir die Entwicklung und Veröffentlichung der Performance Index 64- Anwendung miterlebt von EcoComputers, JSC, das nicht nur die Leistung der Maschine misst, sondern es Ihnen auch ermöglicht, sie aus historischer Sicht zu bewerten. Der Hauptzweck des Leistungsindex 64 besteht darin, die Leistung verschiedener Konfigurationen von 64-Bit-Mac-Systemen anhand einer Reihe von Parametern zu berechnen. Die Anzahl der Parameter umfasst auch die Leistung, die auf der Grundlage des gleichen HPL-Tests gemessen wird, der zur Erstellung der Supercomputer-Bewertung von top500.org verwendet wurde. Der Benutzer erhält das Ergebnis jedoch nicht nur in Gigaflops, sondern auch in speziellen konventionellen Einheiten G5 - anhand dieses Indikators kann man verstehen, wie viel effizienter die Maschine ist als das Basismodell des G5-Computers, das 2003 und 2003 veröffentlicht wurde wurde in diesem Moment die Basis für den drittstärksten Supercomputer der Welt. In der Zwischenzeit besteht kein Grund zur Sorge. “
Darüber hinaus ermöglicht die Anwendung einen ähnlichen Testvergleich des Benutzersystems und der Basiskonfiguration eines Mac Pro 7.1 auf Basis von Intel-Prozessoren. Und schließlich als logische Schlussfolgerung: Messung der Leistung des Benutzers im Vergleich zu den neuen innovativen Mac-Computern auf Basis des M1-Chips (dieser Test ist im Abonnement erhältlich). Auf diese einfache Weise teilt der Entwickler dem Benutzer mit, wie weit wir in nur wenigen Jahrzehnten die Rechenfunktionen verbessert haben. Und fragen Sie sich gleichzeitig, wozu unsere modernen "Arbeitspferde" fähig sind.