Begrenzung des CO2-Ausstoßes auf Asiens Supercomputern

Blog

HeimHeim / Blog / Begrenzung des CO2-Ausstoßes auf Asiens Supercomputern

Sep 04, 2023

Begrenzung des CO2-Ausstoßes auf Asiens Supercomputern

Durchdachtes Prozessordesign, optimierte Programmierung und starke staatliche Unterstützung

Durchdachtes Prozessordesign, optimierte Programmierung und starke staatliche Unterstützung tragen dazu bei, Hochleistungs-Computing-Ökosysteme nachhaltiger zu machen.

AsianScientist (11. April 2023) – Als Pixar und Disney zum ersten Mal einen Blick auf ihren Animationsfilm „Monsters University“ aus dem Jahr 2013 geworfen haben, fiel den Fans schnell ein auffälliges Detail auf: Der Pelz, der Sulley, einen der beiden Protagonisten des Films, bedeckte, war äußerst realistisch.

Millionen und Abermillionen winziger Fellsträhnen bewegten sich überzeugend, wenn der sanfte Riese seine Gliedmaßen bewegte, und zerzausten sogar unter einem engen Hemd, ganz so, wie man es von ihnen erwarten würde. Das Geheimnis der Animatoren? Ein Supercomputer, der damals zu den schnellsten der Welt zählte, der jede einzelne Fellsträhne automatisch neu zeichnete und sie bei jedem Bewegungsbild Licht einfangen und reflektieren ließ.

Gewöhnliche Desktop-Rechner verfügen nicht über die nötige Rechenleistung, um diese Art von Animation auszuführen – sogar die High-End-Versionen hätten damit Probleme gehabt. Aber die Animatoren enthüllten, dass Sulley und andere Monster im Film sowie jede Textur, Schattierung und jeder Rahmen ihre klare, lebendige Existenz dem Hochleistungsrechnen (HPC) verdanken.

Diese Technologie ist in der Lage, problemlos Milliarden von Berechnungen durchzuführen und wird auch zur Vorhersage von Tsunamis, zur Förderung von Innovationen im Gesundheitswesen und zur Erforschung des Ursprungs supermassereicher Schwarzer Löcher eingesetzt. HPC kombiniert leistungsstarke Prozessoren, hochentwickelte Software und andere hochmoderne Computertechnologien und nutzt Tausende von Computerknoten, die gleichzeitig arbeiten, um extrem komplexe Computeraufgaben viel schneller zu erledigen, als es ein normaler Computer kann.

Es gibt nur ein Problem. Mit großer Rechenleistung geht eine große Energiebelastung einher. Auch wenn HPC-Systeme dazu beitragen, einige der drängendsten Probleme der Gesellschaft in den zehn Jahren seit der Monsters University zu lösen, stellen sie ein weiteres Problem dar: ihren enormen CO2-Fußabdruck.

Um Rechenleistung und Nachhaltigkeit in Einklang zu bringen, werden Supercomputer in ganz Asien zunehmend mit energieeffizienteren Prozessoren und Programmierungen ausgestattet. Unterdessen sind sich die Regierungen bei der Gestaltung ihrer wachsenden HPC-Ökosysteme der Notwendigkeit nachhaltigerer Energiequellen und -richtlinien bewusst.

Einer der Haupttreiber der HPC-Kohlenstoffemissionen ist ihr hoher Energiebedarf. Schließlich muss es einen zuverlässigen und robusten Energiefluss geben, um eine solch hohe Rechenleistung zu unterstützen. Das HPC-System hinter der Monsters University umfasste beispielsweise 2.000 Computer mit insgesamt 24.000 Kernen. Trotz dieser Rechenleistung benötigte das vollständige Rendern des Films immer noch über 100 Millionen CPU-Stunden. Währenddessen stiegen die Stromrechnungen von Pixar immer weiter an.

Darüber hinaus benötigt das Frontier-System, der seit November 2022 leistungsstärkste Supercomputer der Welt, mehr als 20 MW Leistung für seine über 8,7 Millionen Kerne – genug, um etwa 52.600 Haushalte in Singapur einen Monat lang zu versorgen.

Alles in allem werden allein durch den Betrieb der 500 besten Supercomputer der Welt rund zwei Millionen Tonnen Kohlendioxid pro Jahr in die Luft gepumpt, was etwa 285.000 Haushalten entspricht.

Darüber hinaus sollte jede ehrliche Bilanzierung der Umweltbelastung durch HPC-Systeme eine Bestandsaufnahme des gesamten Ökosystems der sie unterstützenden Technologien umfassen. Schließlich bilden die Rechenmaschinen selbst nur einen, wenn auch zentralen Teil der Gleichung.

Der Großteil der Energie, die in Supercomputer fließt, wird als Wärme abgegeben. Um die Temperaturen zu regulieren und sicherzustellen, dass die Maschinen weiterhin ordnungsgemäß funktionieren, nutzen Computeranlagen aufwändige Kühlmechanismen, die ihrerseits oft viel Strom verbrauchen.

Eine weitere periphere Quelle von Kohlenstoffemissionen in HPC-Systemen sind Daten. Die Internationale Energieagentur schätzt, dass Rechenzentren weltweit im Jahr 2021 etwa 220 bis 321 TWh Energie verbrauchten – genug, um den Verbrauch einiger Länder in den Schatten zu stellen. Angesichts der weltweit wachsenden Abhängigkeit von HPC-Systemen prognostizierte Professor Tan Tin Wee, Geschäftsführer des National Supercomputing Centre (NSCC) Singapur, dass in Zukunft bis zu 10 Prozent des weltweiten Energieverbrauchs aus dem Betrieb von Rechenzentren stammen werden. „Der Energieverbrauch wird ein riesiges Problem sein“, sagte Tan gegenüber Supercomputing Asia.

Eine wichtige Lösung für die hohen Energiekosten von HPC-Systemen besteht darin, die Energieeffizienz der Rechenleistung zu maximieren, erklärte Professor Satoshi Matsuoka, Direktor des RIKEN Center for Computational Science, in einem Interview mit Supercomputing Asia. Das Ziel müsse darin bestehen, den Stromverbrauch möglichst niedrig zu halten und gleichzeitig Wege zu finden, um eine bessere Leistung zu erzielen.

RIKEN ist die Heimat des Fugaku-Supercomputers, der vom japanischen Unternehmen Fujitsu entwickelt wurde. Seit dem Debüt von Fugaku im Jahr 2020 steht es stets an der Spitze der TOP500-Liste der schnellsten Supercomputer der Welt. Obwohl er im Juni 2022 von Frontier entthront wurde, bleibt Fugaku ein solider Anwärter auf den leistungsstärksten – und energieeffizientesten – Supercomputer der Welt, insbesondere wenn man seine realen Einsatzbedingungen betrachtet.

Laut Matsuoka ist Fugakus Kraft größtenteils auf durchdachtes, zielgerichtetes Design zurückzuführen. „Zuerst mussten wir ihn effizient entwerfen“, sagte er und wies darauf hin, dass sie, da sie wussten, dass der Supercomputer für die Nachhaltigkeitsforschung verwendet werden würde, seine Teile gezielt so konstruiert hätten, dass sie eine maximale Rechenleistung erreichten und gleichzeitig auf andere überflüssige Funktionen verzichteten. „Die Maschine wurde mit dem Gedanken gebaut, Strom zu sparen.“

Das Herzstück von Fugaku – und maßgeblich für seine extreme Energieeffizienz verantwortlich – ist der ebenfalls von Fujitsu entwickelte A64FX-Prozessor.

Ein einzelner A64FX-Chip enthält 48 Rechenkerne, die auf vier Kernspeichergruppen (CMG) verteilt sind. Jedes CMG kann außerdem jeweils bis zu einen weiteren Kern enthalten, der als Assistent fungiert. Im Prozessorjargon ist ein Kern eine kleine Recheneinheit, die Rechenaufgaben unabhängig von anderen Kernen ausführen kann. Die überwiegende Mehrheit der Computerbenutzer wird mit Maschinen mit zwei oder vier Kernen gut bedient sein. Der A64FX steigert seine Leistung um 48.

Jeder Kern des A64FX hat eine Taktfrequenz von 1,8 bis 2,2 GHz, was bedeutet, dass jeder einzelne Kern 1,8 Milliarden bis 2,2 Milliarden Zyklen pro Sekunde absolvieren kann. Einige einfachere Rechenaufgaben können innerhalb eines Zyklus abgeschlossen werden, während komplexere Anweisungen mehrere Zyklen erfordern. Obwohl es etwas vereinfacht ist, führen höhere Taktraten normalerweise zu einer besseren Rechenleistung.

Matsuoka stellte fest, dass abgesehen vom Fugakus Prozessor auch das Netzwerk selbst äußerst effizient sei. Während kommerzielle Netzwerkkarten bis zu 25 bis 30 W pro Knoten verbrauchen, verbrauchen Fugakus Ethernet-über-Kupfer-Netzwerke 10 bis 20 W pro Knoten.

Das Design für Fugaku umfasst auch präzise Leistungssteuerungsfunktionen für Benutzer. Während bei den meisten Prozessoren alle Rechenknoten gleichzeitig ein- oder ausgeschaltet sind, kann Fugaku so konfiguriert werden, dass nur die für eine bestimmte Aufgabe relevanten Teile ausgeführt werden. „Es trägt zu erheblichen Einsparungen beim Stromverbrauch bei“, sagte Matsuoka.

Diese Funktionen sowie andere technische Innovationen haben es dem Fugaku-Supercomputer ermöglicht, Leistungs- und Energiesparbarrieren zu durchbrechen. Im Vergleich zum K-Computer, einem früheren Fujitsu-Supercomputer, der 2019 außer Betrieb genommen wurde, ist Fugaku nach Schätzungen von Matsuoka etwa 70-mal leistungsstärker im Hinblick auf die tatsächliche Leistung. „Aber der Stromverbrauch ist nur um vielleicht 20 bis 30 Prozent gestiegen“, erklärte er. „Damit beträgt die Energieeffizienz von Fugaku im Vergleich zum Vorgänger nahezu den Faktor 50.“

Höchste Effizienz ist auch das Ziel von MN-3, einem Supercomputer, den das japanische Unternehmen Preferred Networks in Zusammenarbeit mit der Universität Kobe entwickelt hat.

Tatsächlich übertrifft MN-3 Fugakus trotz der unglaublichen Zahlen hinsichtlich der Energieeffizienz deutlich. Nach Angaben von Fujitsu kann Fugaku für jedes Watt Energie rund 15 Milliarden Berechnungen durchführen. Mit der gleichen Energiemenge kann MN-3 fast 41 Milliarden leisten – mehr als das Doppelte der Effizienz.

Diese beeindruckende Statistik hat den MN-3 laut Green500, einem halbjährlichen Ranking, das Maschinen hinsichtlich ihrer Energieeffizienz auflistet, durchweg zu den effizientesten Supercomputern der Welt gezählt. Der MN-3 sicherte sich den Spitzenplatz in den Listen November 2021, Juni 2021 und Juni 2020.

„MN-3 wird derzeit von 128 MN-Core-Prozessoren und 1.536 Intel Xeon-CPUs angetrieben. Es besteht aus 32 Knoten mit jeweils 4 MN-Core-Prozessoren“, erklärte Dr. Yusuke Doi, Vizepräsident für Computerinfrastruktur bei Preferred Networks, in einem Interview mit Supercomputing Asia.

„Der Hauptgrund, warum MN-3 dreimal an der Spitze der Green500-Liste stand, liegt jedoch genau darin, dass es anstelle von GPUs MN-Core verwendet, das auf die für Deep Learning erforderliche Matrixberechnung spezialisiert ist“, fügte er hinzu.

MN-Core ist ein Beschleuniger, der mit einer hierarchischen Architektur entwickelt wurde und in einem Vier-Chip-Gehäuse geliefert wird. Jeder Würfel besteht aus vier Blöcken der Stufe zwei, die weiter in acht Blöcke der Stufe eins unterteilt sind. Die Blöcke der ersten Ebene wiederum beherbergen 16 Matrix-Arithmetikblöcke, die ihrerseits jeweils vier Verarbeitungselemente enthalten.

Auf jeder Ebene ist jeder Block mit einzigartigen On-Chip-Netzwerken verbunden, die Daten auf jeder Hierarchieebene senden, aggregieren oder sammeln können. Verschiedene Teile eines großen Datensatzes können auf verschiedene Teile des Blocks verteilt werden, was eine hocheffiziente Verarbeitung und Berechnung ermöglicht.

Preferred Networks setzte außerdem Softwareoptimierungen ein, die das volle Potenzial der MN-Core-Hardware freisetzten und dazu beitrugen, die Energieeffizienzwerte von MN-3 noch weiter zu steigern.

Insbesondere entwickelte das Unternehmen den MN-Core Compiler, ein Programm, das High-Level-Computercode in eine andere, maschinenfreundlichere Sprache übersetzt. Es wurde mit zwei Hauptzielen entwickelt: die Notwendigkeit benutzerseitiger Änderungen zu minimieren und die Funktionen von MN-Core zu maximieren, um eine maximale Rechenleistung zu erzielen.

Insbesondere musste der Compiler herausfinden, wie Berechnungen optimal auf jede Recheneinheit in der hierarchischen Struktur des MN-Core abgebildet werden können. Da der Beschleuniger nur einen einzigen Befehlsstrom verwendet, musste das Programm außerdem einen stetigen Datenfluss sicherstellen, um die Leistung so nahe wie möglich an ihr theoretisches Maximum zu bringen.

Das Endergebnis ist eine Software, die eine starke Kontrolle über die Hardware hat und bestimmen kann, wie Berechnungen durchgeführt werden, um maximale Effizienz zu erreichen. „In MN-Core wird das, was herkömmlicherweise innerhalb der Hardware automatisch entschieden und verarbeitet wird, der Softwareseite zur Verfügung gestellt, und die Software kann Details der Berechnung in der Hardware in einem ‚manuellen Modus‘ manuell steuern, um den Energieverbrauch zu optimieren“, erklärte Doi.

Dies spiegelt die Kernphilosophie von Preferred Networks wider: das wahre Versprechen der Hardware durch intelligentes Softwaredesign zu verwirklichen. „Solange sie ordnungsgemäß von der Software gesteuert werden, kann das wahre Potenzial von Silizium freigesetzt werden“, sagte Doi.

Trotz der branchenverändernden Nachhaltigkeitsbemühungen von Unternehmen wie Fujitsu und Preferred Networks bleiben einige entscheidende Faktoren außerhalb der Macht privater Unternehmen.

Beispielsweise reicht es bei der Bewertung der CO2-Emissionen eines Supercomputers nicht aus, nur darauf zu achten, wie viel Energie er verbraucht oder wie effizient er Berechnungen durchführen kann. Es ist auch wichtig, den Energiemix ihres Landes zu berücksichtigen. HPC-Systeme in Ländern, die hauptsächlich mit erneuerbaren Energien betrieben werden, werden nachhaltiger sein als solche in Gebieten, die noch auf fossile Brennstoffe angewiesen sind. Deshalb teilte Matsuoka mit, dass es Teil von Fugakus Mission sei, Japan bei der Entwicklung seiner Offshore-Wind- und Solarenergieerzeugung zu unterstützen. Doch nicht jedes Land kann mithalten.

Laut Singapurs Energy Market Authority (EMA) stammen rund 95 Prozent des Stroms des Landes aus Erdgas. Dies ist die sauberste Form der Energie aus fossilen Brennstoffen – aber dennoch eine kohlenstoffintensive Quelle. EMA schätzt, dass Singapur in absehbarer Zukunft weiterhin auf Erdgas angewiesen sein wird, sucht aber weiterhin nach nachhaltigeren Alternativen wie Solarenergie und investiert in diese.

Abgesehen von der Entwicklung saubererer Energiequellen haben Regierungen auch die Macht, die HPC-Ökosysteme ihrer Länder zu gestalten und Richtlinien zu entwickeln, die ihnen dabei helfen könnten, den Anforderungen von Verbrauchern und Industrie gerecht zu werden und sie gleichzeitig im Einklang mit den Emissionszielen zu halten.

In Japan beispielsweise hat die Regierung erhebliche Subventionen angekündigt, um Rechenzentren bei der nachhaltigen Modernisierung ihrer Einrichtungen zu unterstützen. Das Land erwägt auch, diese stromhungrigen Zentren in den kälteren Regionen des Landes zu konzentrieren, was dazu beitragen könnte, den Strombedarf für Kühlsysteme zu senken.

Unterdessen hat die Regierung von Singapur die Genehmigung und den Bau neuer Rechenzentren im Jahr 2019 ausgesetzt und dabei auf deren Strombedarf von 350 MW hingewiesen. Das Moratorium endete im Jahr 2022 und ermöglichte es den Beamten, für die Zukunft neue Leitprinzipien zu schaffen.

Nach den neuen Regeln werden nur Einrichtungen zertifiziert, die strenge internationale Standards erfüllen, erstklassige Energieeffizienztechnologien einsetzen und klare Pläne zur Integration erneuerbarer Energien und anderer innovativer Energiepfade in den Betrieb vorlegen. Diese Maßnahmen werden Singapur dabei helfen, den wachsenden Bedarf an Rechenzentren mit der Notwendigkeit, auf die dringende Klimakrise zu reagieren, in Einklang zu bringen.

Allerdings entwickeln sich Technologien und Umstände ständig weiter. Was heute vielleicht das Beste seiner Klasse ist, könnte morgen wirkungslos sein; Die CO2-Ziele in diesem Jahr könnten im nächsten Jahr unzureichend sein. Angesichts dieser Unsicherheiten hat Singapur einen guten Präzedenzfall für sich selbst und ein gutes Beispiel für den Rest Asiens geschaffen: Drücken Sie die Pause-Taste, ziehen Sie eine Bestandsaufnahme der Besitzenden und Besitzlosen und planen Sie einen besseren Weg nach vorne.

Was NSCC betrifft, eine staatlich finanzierte Supercomputing-Einrichtung, wies der Geschäftsführer Professor Tan Tin Wee darauf hin, dass es ihre Aufgabe sei, mit gutem Beispiel voranzugehen. In den letzten sieben Jahren hat sein Team als Pionier kostengünstigere und effizientere Kühltechniken entwickelt, die den Energieverbrauch ihrer HPC-Systeme gesenkt haben – ein entscheidendes Unterfangen für Supercomputing in einem tropischen Land. „Wir können immer wieder neue Dinge ausprobieren, wozu sich kommerzielle Rechenzentren nicht den Luxus leisten können“, erklärte Tan. „Wenn wir anderen zeigen können, dass wir es können, dann kann der Rest der Gemeinschaft folgen.“

Diese Techniken wurden auf den neuesten Supercomputer des NSCC, den ASPIRE 2A, angewendet. Das ASPIRE 2A wurde auf der Grundlage von Erkenntnissen aus ASPIRE 1 entwickelt und hat einen PUE – oder Stromverbrauchseffektivität, eine Kennzahl zur Messung der Energieeffizienz eines Rechenzentrums – von nahezu 1,08. Typische Rechenzentren in der Region haben einen PUE von 2.

Diese Innovationen haben bereits die wohlverdiente Anerkennung erhalten. Das NUS-NSCC i4.0-Rechenzentrum, in dem sich das ASPIRE 2A befindet, erhielt 2021 den Platinum Green Mark Award der Building & Construction Authority (BCA) für Rechenzentren und den W.Media Southeast Asia Cloud & Datacenter (DC) Award für Energie Effiziente Innovation im Jahr 2022.

Um die Energieeffizienz ihrer Systeme weiter zu verbessern, führt das NSCC auch Simulationen seiner eigenen Supercomputer durch. Auf diese Weise, so Tan, „sind Supercomputer nicht nur ein Mitwirkender, sondern eine Lösung für das Problem selbst.“

Unabhängig davon, ob HPC-Systeme dazu verwendet werden, die realistischsten animierten Monster zu erschaffen oder den neuesten Stand der wissenschaftlichen Erkenntnisse voranzutreiben, muss sichergestellt werden, dass ihre Emissionen mit den Nachhaltigkeitszielen des Planeten in Einklang stehen. Asiens Innovationen bei Prozessoren, Programmierung und Richtlinien haben gezeigt, dass dies möglich ist.

Dieser Artikel wurde erstmals im Januar 2023 in der gedruckten Ausgabe von Supercomputing Asia veröffentlicht. Klicken Sie hier, um das Asian Scientist Magazine in gedruckter Form zu abonnieren.

Urheberrecht: Asian Scientist Magazine.

Haftungsausschluss: Dieser Artikel spiegelt nicht unbedingt die Ansichten von AsianScientist oder seinen Mitarbeitern wider.

#Kohlenstoffabscheidung #Kohlenstoffemissionen #Kohlenstoff-Fußabdruck #Hochleistungsrechnen

Tristan ist ein unabhängiger Wissenschaftsjournalist mit Sitz in Metro Manila und verfügt über rund sieben Jahre Erfahrung im Schreiben über Medizin, Biotechnologie und Umwelt. Als ausgebildeter Molekularbiologe träumte er einst davon, einen Abschluss zu machen und ein eigenes Labor zu eröffnen. Aber heutzutage findet er seine größte Freude in einer Flasche Bier und einem schönen Satz.

Tristan ist ein unabhängiger Wissenschaftsjournalist mit Sitz in Metro Manila und verfügt über rund sieben Jahre Erfahrung im Schreiben über Medizin, Biotechnologie und Umwelt. Als ausgebildeter Molekularbiologe träumte er einst davon, einen Abschluss zu machen und ein eigenes Labor zu eröffnen. Aber heutzutage findet er seine größte Freude in einer Flasche Bier und einem schönen Satz.

Tristan Manalac begrenzt Kohlenstoff auf Asiens Supercomputern. Das besorgniserregende Stromversorgungsproblem von HPC. Gründlicher Gedanke und ein starkes Herz. Radikale Vereinfachung in der Software- und Chip-Architektur. Macht, Politik und ein wichtiger Präzedenzfall. Tristan Manalac. Tristan Manalac