Supercomputer sind gefragt – und wichtig – wie selten zuvor


Themen wie Big Data Analytics, Deep Learning, Machine Learning sowie der verstärkte Einsatz von Simulation in der Produktentwicklung sind wichtige Treiber für die zunehmende Verbreitung von Supercomputern. Die Hersteller erfüllen den Bedarf nach mehr Rechenleistung durch innovative Partnerschaften.

2016 war das siebte Jahr in Folge, in dem der Markt für High-Performance Computing (HPC) gewachsen ist. Besonders interessant dabei: Supercomputer und Hochleistungssysteme scheinen langsam die Nische der Forschung zu verlassen und werden immer häufiger in der produzierenden Industrie eingesetzt. Laut den Marktforschern von Intersect 360 steuern Industrieunternehmen inzwischen mehr als die Hälfte des weltweiten Umsatzes von 35,6 Milliarden Dollar bei, Tendenz weiter steigend. Und die Aussichten sind weiterhin gut. Bis 2021 gehen die Analysten von einem durchschnittlichen Marktwachstum von 4,3 Prozent aus.

Eine große Nachfrage nach hoher Rechenleistung gibt es besonders im Umfeld der Life Sciences, insbesondere in der Pharma- und Genforschung, sowie überall in der Produktentwicklung, wo CAE (Computer Aided Engineering) eingesetzt wird. Leistungsstarke Computer helfen beispielsweise Autohersteller dabei, Prototypen zu entwerfen und Crash-Tests virtuell vorzunehmen. Unverzichtbar sind HPC-Systeme auch bei der Suche nach Rohstoffen wie Öl oder Gas.

„HPC-Systeme sind inzwischen nicht nur mit dem wissenschaftlichen Fortschritt, sondern auch mit der industriellen Innovation und der wirtschaftlichen Wettbewerbsfähigkeit eng verbunden“, sagt Earl Joseph, CEO des Marktforschers Hyperion Research. Folglich werde der Einsatz von HPC-Systemen in bereits etablierten Bereichen weiter ausgebaut sowie neue Einsatzgebiete erschlossen. Zudem spiele die Entwicklung der Informationswissenschaft an sich den Hochleistungssystemen in die Hände. So sieht Earl Joseph das Thema Big Data und die dadurch bedingte Hochleistungs-Datenanalyse (HPDA – High Performance Data Analytics) als weiteren wichtigen Faktor für das Wachstum.

Zunehmen neue Einsatzgebiete

Die Menge der zu verarbeitenden Daten wächst überall und macht HPC-Computing unabdingbar – Beispiel Klimaforschung: Für eine exakte Wettervorhersage sind große Datenmengen nötig, die sich aus unterschiedlichen Quellen speisen. Dazu gehören Sensoren (an Land, in der Luft, in den Ozeanen), Radar und Satelliten. Klimamodelle wiederum beruhen in der Regel auf dem Vergleich historischer Daten mit aktuellen Beobachtungen. So nutzt das Europäische Zentrum für mittelfristige Wettervorhersage (ECMWF) täglich etwa 40 Millionen aktuelle Beobachtungen in ihren Modellen. Investitionen in Supercomputer können Wettervorhersagen präziser machen und damit helfen, Katastrophenwarnungen (wie beispielsweise vor Tornados) schneller und exakter herauszugeben. Im Zuge des Klimawandels werden solche Warnungen deutlich zunehmen.

Auch aus der medizinischen Forschung sind Supercomputer nicht mehr wegzudenken. Durch die schnelle und relativ preiswerte Sequenzierung des menschlichen Genoms stehen Wissenschaftlern neue Möglichkeiten zur Verfügung, um beispielsweise die Verbindung zwischen menschlichen Genen und Krebserkrankungen zu erforschen. Die 31.000 Basenpaare, die jeden Menschen einzigartig machen und ständig mit einigen tausend Umweltvariablen interagieren (woraus dann etwa 30.000 Krankheitssymptome resultieren können), geben einen Hinweis auf die enorm hohe Datenmenge. Allein Genomdatenbanken verfügen schnell über mehrere hundert Terabyte und stellen Big-Data-Analytics vor enorme Herausforderungen.

In der Finanzindustrie geht es bei Berechnungen nicht nur darum, Risiken und Chancen neuer Finanzprodukte zu ermitteln. Auch bei der ökonomischen Modellierung, der Preisgestaltung von Derivaten und dem Hochfrequenzhandel mit Wertpapieren wird große Rechenleistung benötigt. Die verwendeten Datensätze machen schnell einige Petabytes aus, was die Auswertung in Echtzeit erschwert. Andererseits entscheiden im Hochfrequenzhandel wenige Millisekunden über Gewinn oder Verlust.

Essenziell sind HPC-Systeme auch bei der Bekämpfung von Cyberkriminalität. Die Zahl der Angriffe auf Firmennetzwerke, Datenbanken, Regierungsinstitutionen und künftig verstärkt auf kritische Infrastrukturen wie Kraftwerke und Versorgungsnetze nimmt ständig zu. Herkömmliche Sicherheitslösungen stoßen dabei an ihre Grenzen.  Bei der Suche nach Schadsoftware geht es beispielsweise darum, einen noch unbekannten Code mit einem schon bekannten zu vergleichen. Die Erfolge mit Deep Learning bei der Mustererkennung lassen sich auf die Cybersicherheit übertragen, wo selbstlernende Algorithmen bei der Abwehr von Angriffen für ein hohes Maß an Sicherheit sorgen können.

Relevanz von Grafikprozessoren steigt

Um mit den gestellten Leistungsanforderungen Schritt zu halten und ihre Systeme dennoch zu bezahlbaren Preisen anbieten zu können, mussten Hersteller von Supercomputern wie Cray teilweise neue Wege gehen. Die radikalste Neuerung dürfte dabei der Einsatz von Grafikprozessoren sein. Während herkömmliche Prozessoren (Central Processing Units, CPUs) dafür gebaut sind, komplette Systeme wie PCs oder Server zu steuern, liegt die Stärke von GPUs (Graphic Processing Units) im parallelen Rechnen, also in der eigentlichen Datenverarbeitung.

Nach Angaben von Grafikprozessor-Hersteller Nvidia lassen sich mit deren GPU Tesla P100 (sie vereint 3.548 Rechenkerne auf einem Chip) bis zu 32 herkömmliche Server-CPUs ersetzen. Die GPU liefert dadurch eine Rechenleistung von bis zu 18,7 Teraflops. Heutzutage werden die Chips von Nvidia im Supercomputing interessanterweise als Vektorprozessoren eingesetzt – also in derselben Rolle wie die Prozessoren, die Supercomputer-Pionier Cray vor Jahrzehnten in seinen ersten Systemen einsetzte. Dadurch konnte Cray seine neuesten Systeme um Faktor 10 beschleunigen. Die inzwischen enge Partnerschaft zwischen Cray und Nvidia zahlt sich aus, denn mittlerweile sind fast 70 Prozent der 50 am meisten verbreiteten HPC-Applikationen für GPU-beschleunigtes Computing optimiert. microstaxx ist zudem als einer der wenigen Nvidia Preferred Partner für Accellerated Computing und Deep Learning in Deutschland im Stande, den Kunden im Rahmen komplexer High-Performance-Lösungen attraktive Bezugskonditionen für Tesla Grafikprozessoren anzubieten.

Ein weiterer Anhaltspunkt für den Innovationsdruck, den Firmen wie Cray unterworfen sind, ist die Übernahme der ClusterStor des Speicherherstellers Seagate durch Cray diesen Sommer. Herzstück dieser Sparte sind Storage-Systeme, die eine Durchsatzrate von 1,7 Terabyte pro Sekunde bei einer Speicherkapazität von bis zu 80 Petabyte vorweisen können.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.