Tip:
Highlight text to annotate it
X
Die hohe Sicherheit in modernen Systemen, wie
beispielsweise dem Flugverkehr, ist für uns heutzutage
nahezu selbstverständlich.
Um diese Sicherheit zu gewährleisten arbeiten Forscher
und Entwickler an immer besseren und zuverlässigeren
Produkten.
Dabei leisten Computersimulationen einen großen Anteil
und sparen bei den umfassenden Zuverlässigkeitstests
wertvolle Zeit und auch Materialressourcen, die sonst
für Tests mir realen Demonstratoren benötigt
würden.
Die hierfür benötigte Rechenleistung steigt ständig
an. Zusammengenommen verbrauchen die Dienste heutzutage
so viel Energie wie der gesamte Flugverkehr.
Und alle 18 Monate verdoppelt sich diese Menge.
Dennoch muss sie flexibel und zu einem angemessenen
Preis für Unternehmen, Forschungsinstitute und
Hochschulen zur Verfügung stehen und genau daran
arbeitet das Projekt AC4DC.
Obwohl wir mittlerweile wissen, dass die Auslastung der
Server analog zu den Arbeitszeiten der Menschen läuft,
das heißt am Tage höher ist als zum Beispiel nachts
und am Wochenende, werden die Kapazitäten in den
Rechenzentren noch rund um die Uhr vorrätig gehalten.
Ein Arbeitsschritt ist es, durch ein besseres
Management innerhalb eines Rechenzentrums den Verbrauch
an den tatsächlichen Bedarf anzupassen.
"Rechenzentren bestehen aus drei unterschiedlichen
Bereichen. Wir haben einmal die Klimatisierung und
Infrastruktur, Serverhardware und Dienst und
Betriebssysteme. Heutzutage werden alle diese drei
Bereiche für sich selbst optimiert. In unserem Projekt
wollen wir es schaffen, ein Algorithmus zu entwickeln,
der alle drei Bereiche miteinander optimiert, also
einen ganzzeitlichen Algorithmus schafft. Das kann man
sich in etwa so vorstellen, wie einen Dirigenten in
einem Orchester, der an der richtigen Stelle den
Einsatz der einzelnen und auch das Zusammenspiel
vorgibt."
So können zum Beispiel nachts die nichtbenutzten Teile
eines Rechenzentrums, wie Server und Klimaanlage in
einen Standby-Zustand versetzt, oder abgeschaltet
werden. Die von dem Projekt AC4DC entwickelten
Vorschläge sollen zu einer Senkung des Stromverbrauchs
um etwa 40 Prozent führen. Dies wird in den
Testrechenzentren der Projektpartner nachgewiesen.
"In einem weiteren Schritt lässt sich auch ein Verbund
von Rechenzentren optimieren. Dies geschieht auf einer
übergeordneten Ebene im Systemmanagement. Ich selbst
stehe hier in einem Testrechenzentrum welches wir extra
für diesen Zweck gebaut haben.
Im Wesentlichen gehen drei Parameter in die Optimierung
ein. Das ist zum einen der regionale Strompreis, denn
der kann sehr unterschiedlich in Deutschland sein, je
nach dem Angebot an regenerativer Energie. Der zweite
Parameter ist das lokale Klima. Denn wir haben in
Deutschland an unterschiedlichen Standorten, ganz
verschiedene Außentemperaturen. Der dritte Parameter
ist die Auslastung der Rechenzentren. Denn wir schauen
nach, ob in einem Rechenzentrum noch genügend
Kapazität vorhanden ist. Konkret heißt das, dass wir
versuchen so lange wie möglich mit kalter Außenluft
unsere Server zu kühlen.
Wenn zum Beispiel in Köln ein kalter Westwind weht,
und in München ein warmes Föhn-Wetter ist, dann
würden wir Prozesse von München nach Köln verlagern,
denn in Köln habe ich niedrigere Klimatisierungskosten
und aufgrund des Windes ist dort auch ein Überangebot
an billigem Strom, sodass dort einfach günstiger ist
zu rechnen."
Somit stellt das Projekt sicher, dass die komplexen
Anforderungen der Zukunft intelligent und effizient
gesteuert und damit Geldbeutel und Umwelt geschont
werden.