Das Ziel des Experiments war äußerst einfach: Ist es möglich, einen vollständig autonomen Hardware-Cluster zu erstellen, und wenn ja, wie lange und unter welchen Bedingungen kann er betrieben werden?
Microsoft Project Natick ist eine mehrjährige Studie, in der untersucht wird, wie umweltverträgliche vorgefertigte Rechenzentren in einem standardisierten Format und einer standardisierten Größe hergestellt und betrieben werden können, die schnell bereitgestellt werden können und jahrelang nicht beleuchtet sind.
- Offizieller Blog des Projekts
Zwei Jahre später hob das Projektteam einen Container mit einem Rechenzentrum vom Boden der Orkney-Inseln und berichtete über die Ergebnisse: Das Experiment war mehr als erfolgreich.
Das Natick-Projekt startete bereits 2015. Dann entwickelte ein Team von Microsoft-Ingenieuren das Konzept eines Rechenzentrums in einem überfluteten Container und testete den ersten Prototyp namens "Leona Philpot".
"Leona Philpot" - ein Testdatenzentrum in einem Microsoft-Entwicklungscontainer, August 2015
Bei "Leona Philpot" testeten Microsoft-Ingenieure das Gerätekühlsystem unter Verwendung der natürlichen Umgebung - Meerwasser. Die Tests wurden im Pazifik 1 Kilometer vor der Küste der Vereinigten Staaten durchgeführt. Bestimmte Orte werden nicht erwähnt, aber nach den Landschaften auf den Fotos zu urteilen, sind die Ingenieure damals nicht zu weit nach Norden geklettert: Es ist wahrscheinlich, dass die ersten Tests in der Nähe der kalifornischen Küste durchgeführt wurden.
Die Idee eines umweltfreundlichen mobilen Unterwasser-Rechenzentrums ist nicht nur ein Hinweis auf umweltfreundliche Technologien, sondern auch mehr als eine praktische Lösung. Laut den Entwicklern lebt die Hälfte der Weltbevölkerung in der ~ 200 km langen Küstenzone. Dies macht die Platzierung von Rechenzentren unter Wasser zu einer attraktiven Lösung, da viele Fragen zu Bau, Miete, Kommunikation auf fremdem Gebiet usw. beseitigt werden. Darüber hinaus ist die Verwendung von Meerwasser als Kühlmittel für das Kühlsystem viel besser als der Bau derselben Systeme in einem herkömmlichen Rechenzentrum und sicherlich billiger.
Montage des Leona Philpot an Land vor dem Tauchen
Außerdem bedeutet dies fast eine zweifache Energieeinsparung: In einem klassischen Rechenzentrum wird fast so viel Strom für die Kühlung aufgewendet wie für den Betrieb der Geräte selbst. Dies ist die Thermodynamik. Daher sieht ein überflutetes Rechenzentrum unter diesem Gesichtspunkt attraktiv aus.
Die Tests dauerten von August bis Oktober 2015, dauerten 105 Tage und zeigten, dass das Konzept im Allgemeinen realisierbar ist und entwickelt werden kann: Die Montage und Installation eines Container-Rechenzentrums dauert drei Monate, während die Erstellung einer Rechenzentrums-Warteschlange ein Jahr dauert. Die Bereitstellung verursacht keine besonderen Schwierigkeiten Da die Menschheit seit langem Tauchgeräte verwendet, kann das Rechenzentrum mit seltenen Inspektionen des äußeren Zustands des Falles ferngesteuert werden. Das Rechenzentrum selbst in einem Container ist eine typische Lösung und kann vormontiert verkauft werden.
Im Jahr 2018 wurde das Experiment wiederholt. Diesmal stellten die Ingenieure eine Konfiguration zusammen, die einer kommerziellen nahe kam: Die Anzahl der Server im Container nahm zu, und der Container selbst ähnelte eher einem Eisenbahntank als einem Fass. Um genau zu sein, ist dies der Tank. Der Rumpf basierte auf einem modifizierten ISO-Standard-Versandcontainer, der weltweit im Güterverkehr aktiv eingesetzt wird. Diese Entscheidung beseitigte nicht nur das Problem der Herstellung von Rechenzentrumsfällen, sondern auch des Transports per Standardlogistik zum Tauchplatz. Die geplante Ressource für einen unterbrechungsfreien Betrieb des Endprodukts beträgt fünf Jahre unter Wasser . Der Prototyp wurde "Northern Isles" - "Northern Islands" genannt.
Wichtige Natick-Projektentwickler, von links nach rechts: Mike Shepperd, leitender Forschungs- und Entwicklungsingenieur, Sam Ogden, leitender Software-Ingenieur, Spencer Fowers, leitender technischer Mitarbeiter, Eric Peterson, Forscher und Ben Cutler, Projektmanager
Das Rechenzentrum ist jetzt kalt überflutet Gewässer Schottlands, in der Nähe der Orkney-Inseln. Der Container wurde bis zu einer Tiefe von 35 Metern auf den Meeresboden abgesenkt und über Strom- und Glasfaserkabel mit dem "Boden" verbunden.
In der zweiten Phase von Naticks Experimenten wollten die Forscher herausfinden, ob ihre Entwicklung wirtschaftlich rentabel ist. Es gab viele Fragen: Wie wird sich die Ausrüstung in großen Tiefen verhalten, ob es ein Problem mit der Stromversorgung und Datenübertragung gibt, da der Server in einer aktiven Küstenzone liegt und dieselben Unterwasser-Internetkabel Probleme mit Meereslebewesen und Ankern von Fischereifahrzeugen haben. Und schließlich, wie viel Ausrüstung ohne ständige physische Überwachung und Wartung ausfällt.
Als die Ingenieure erkannten, dass letzteres - der Ausfall der Ausrüstung im Container - die größte Bedrohung für die kommerzielle Nutzung ihres Designs darstellt, trafen sie eine elegante Entscheidung. Im versiegelten Behälter ist eine sauerstofffreie Umgebung organisiert. Anstelle von normaler Luft wurde billiger und sicherer Stickstoff in den Hohlraum der Nordinseln injiziert und die Luftfeuchtigkeit auf Null reduziert.
Diese technische Lösung entfernte mehrere Fragen gleichzeitig. Erstens schloss die Abwesenheit von Sauerstoff ein Feuer im Behälter während des Betriebs aus. Das Schmelzen einzelner Elemente war weiterhin möglich, offenes Feuer, das auf andere Geräte übertragen und das gesamte Rechenzentrum zerstört werden konnte, jedoch nicht. Darüber hinaus ist Stickstoff als Medium weniger aggressiv, wodurch die Belastung von Metallelementen der Computertechnologie verringert wird, die Korrosion ausgesetzt sein können.
Foto eines Mega-Racks mit 12 Server-Racks, die in einen Container geladen wurden, für insgesamt 864 Server, 2018
In dieser Konfiguration wurden die nördlichen Inseln vor der schottischen Küste überflutet und verbrachten zwei Jahre unter Wasser.
Rechenzentrum nach zwei Jahren auf dem Meeresboden
Und jetzt, gestern, 14. September, Microsoftberichtete über die Ergebnisse ihres Experiments nach dem Aufstieg des Rechenzentrums.
In erster Linie fielen während des Betriebs achtmal weniger Server aus als in einer ähnlichen Konfiguration in einem Rechenzentrum auf der Erdoberfläche. Die genauen Zahlen sind leider nicht angegeben, aber es ist offensichtlich, dass sie nicht zu groß sind. Die Forscher erklären dieses hervorragende Ergebnis durch zwei Dinge: eine Stickstoffumgebung, die für Geräte nicht aggressiv ist, sowie die Beseitigung des menschlichen Faktors in der Person der Mitarbeiter, die untätig an den Servern vorbeiziehen. Letzteres ist buchstäblich ein Beispiel für die bekannte Regel "Werke - nicht anfassen".
Die Forscher haben alle nicht funktionierenden Geräte, einschließlich fehlerhafter Kabel, gesammelt und einer gründlichen Analyse unterzogen, um die Gründe für den Ausfall zu verstehen.
Der Container selbst wurde durch den Meeresboden fast nicht beschädigt. Wie Sie auf dem Foto oben sehen können, werden nach der Reinigung mit einem Wasserschneider keine ernsthaften Schäden oder Korrosion an der Oberfläche beobachtet, obwohl die Meeresumwelt extrem korrosiv gegenüber Metallen ist.
Vor zwei Jahren haben sich Kollegen von Azure sehr für die Entwicklung des Natick-Projektteams interessiert. Wie der Direktor zugab, ist die Möglichkeit, mobile und autonome Rechenzentren bereitzustellen, für die kein menschliches Eingreifen erforderlich ist, ein "Traum". Eine solche Lösung wird in Südostasien, Afrika und einer Reihe europäischer Regionen definitiv gefragt sein.
Darüber hinaus kann die Entwicklung von Microsoft die Entwicklung von "grüner" Energie vorantreiben, dh einen Kaskadeneffekt verursachen. Während Ingenieure Strom zusammen mit Glasfaserkabeln vom Land ziehen müssen, können mit der Entwicklung autonomer Gezeitenkraftwerke die Rechenzentren des Natick-Projekts von diesen aus mit Strom versorgt werden. Dies passt nicht nur in das Konzept eines "grünen Gleichstroms", sondern erhöht auch die Autonomie des Rechenzentrums erheblich, sodass es in Bezug auf die Leistung nahezu unabhängig von den Vorgängen am Ufer ist.
Werbung
Virtuelle Server mit Schutz vor DDoS-Angriffen und der neuesten Hardware befinden sich in einem der besten russischen Rechenzentren - DataPro. All dies dreht sich um unsere epischen Server . Maximale Konfiguration - 128 CPU-Kerne, 512 GB RAM, 4000 GB NVMe! Beeilen Sie sich, um zu bestellen.
