In Jülich wird gerade der schnellste Computer Europas aufgebaut – „Jupiter“ soll mithilfe von KI drängende Probleme unserer Zeit lösen.
KI-Turbine „Jupiter“Europas schnellster Computer steht im Rheinland

Ein Modul Jedi für den Supercomputer Jupiter im Forschungszentrum Jülich
Copyright: Forschungszentrum Jülich
„Ich bin zu faul zum Rechnen“, antwortete Konrad Zuse, wenn er gefragt wurde, warum er die Z1 gebaut hatte. Die Z1 bestand aus 30.000 mechanischen Einzelteilen, angetrieben von einem Staubsaugermotor. Sie gilt als Vorläufer heutiger Computer. Seine Rechenleistung: Eine Instruktion – sprich: ein Befehl an die Maschine – pro Sekunde.
Das war 1937. Wenn in den kommenden Monaten der Supercomputer „Jupiter“ am Forschungszentrum Jülich in Betrieb geht, wird er der erste Rechner der Exascale-Klasse in Europa sein und damit einer der schnellsten Computer der Welt. „Jupiter“ steht für „Joint Undertaking Pioneer for Innovative and Transformative Exascale Research“ (etwa: „Gemeinsames Unternehmen – Vorreiter für innovative und transformative Exascale-Forschung“), Forscher lieben nun mal Akronyme.
Die „Jupiter AI Factory“, kurz: „JAIF“, wird mit rund 55 Millionen Euro von der europäischen Super-Computing-Initiative EuroHPC Joint Undertaking, dem Bundesministerium für Bildung und Forschung und den Wissenschaftsministerien in Nordrhein-Westfalen und Hessen gefördert. Warum das mehr als eine reine Rekordjagd ist, dazu gleich mehr.
In den knapp 90 Jahren seit Zuses Erfindung ist die Leistungsfähigkeit der digitalen Universalmaschinen astronomisch angewachsen. Etwa alle zehn Jahre steigert sich die Leistung der schnellsten Rechner der Welt um das Tausendfache. Als Ende der 1980er Jahre in Jülich das erste deutsche Höchstleistungsrechenzentrum gegründet wurde, schaffte man sich einen Supercomputer namens Cray Y-MP an, der brachte es schon auf eine Milliarde Berechnungen pro Sekunde. Gut 15 Jahre später stand an dieser Stelle der „Jump“ von IBM, mit einer Leistung von fast neun Teraflops. Der „Flop“ hatte als Maßeinheit die „Instruktionen pro Sekunde“ ersetzt.
Flop steht für „Floating Point Operations Per Second“. Gemeint ist die Anzahl der Gleitkomma-Operationen pro Sekunde. Die bewegliche Kommastelle benötigt man, damit der Computer auch mit gebrochenen Zahlen und vor allem in größeren Zahlenräumen rechnen kann. „Tera“ steht für eine Billion, also eine 1 mit 12 Nullen. Das klingt nach viel, aber ein Teraflop entspricht nur ungefähr der Rechenleistung eines neuen Smartphones.
„Jupiter“ entspricht der Leistung von einer Million Smartphones
„Exa“ steht für eine Trillion, 18 Nullen hinter der 1. Damit entspricht „Jupiter“ der Leistung von einer Million Smartphones. Würde man die aufeinanderstapeln, prahlt ein Erklärvideo des Jülicher Supercomputing Centre, erreichten sie die Höhe des Mount Everest. In wie dünner Luft man sich mit dem Exascale-Rechner tatsächlich bewegt, bezeugt eine andere steile Behauptung aus Jülich: Ein rechenintensives Basismodell wie den bekannten KI-Assistenten ChatGPT könne „Jupiter“ binnen zwei Tagen trainieren. Der Supercomputer, schwärmt die NRW-Landesregierung, sei „quasi die Turbine für den neuen Rohstoff Künstliche Intelligenz“.
Was bedeutet das?
Wenn wir derzeit von Künstlicher Intelligenz (KI) sprechen, meinen wir vor allem maschinelles Lernen. Das funktioniert beim Computer wie beim Menschen durch Wiederholung. In der Wiederholung, sprich dem Training der KI-Modelle, lernt der Algorithmus selbständig die Struktur und den Informationsgehalt der Daten zu erkennen. Wozu er allerdings mit einer Menge an Informationen gefüttert werden muss, Stichwort Big Data.
Astrid Lambrecht, die Vorstandsvorsitzende des Forschungszentrums Jülich, beruhigt Ängste vor einer möglichen Übermacht der Maschinen gerne mit der Aussage, dass das menschliche Gehirn auf absehbare Zeit, wenn nicht für immer, dem Computer überlegen sein wird. Trotzdem: die Datenmengen, die KI verarbeiten kann, sind für Menschen unmöglich zu bewältigen. Unterlegen ist der Mensch auch, wenn es darum geht, komplexe Muster oder Strukturen zu verstehen oder schnell aus Versuchen und Fehlern zu lernen. Das ist der Grund, warum die Computer in Schach und seit einigen Jahren auch im noch viel komplexeren Go-Spiel selbst für die besten Spieler unschlagbar geworden ist.
Ungeheurer Energiebedarf der Künstlichen Intelligenz
Je komplexer die Aufgabe, je größer die Datenmenge, desto stärker muss auch die geballte Rechenpower sein. Wie die von „Jupiter“: KI-Modelle sollen mit Hilfe des Jülicher Supercomputers schneller entwickelt, getestet und verbessert werden als je zuvor. Dass maschinelles Lernen sehr viel mehr als einen alten Staubsaugermotor braucht, erkennt man übrigens auch am ungeheuren Energiebedarf der Künstlichen Intelligenz. Bis 2030, schätzen Experten, werden dank des KI-Booms (und Kryptowährungen) Rechenzentren rund 3,5 Prozent des weltweiten Stromverbrauchs ausmachen.
Aber „Jupiter“ wird jetzt nicht einfach neue KI-Chatbots entwickeln?
Natürlich nicht. Der Supercomputer wird seine Rechenkraft in den Dienst fast aller gesallschaftlichen Bereiche stellen: Gesundheitswesen, Bildung, Medien, öffentlicher Sektor. Wissenschaftliche Fragen zu so drängenden Themen wie dem Klimawandel, der Bewältigung zukünftiger Pandemien oder nachhaltiger Energieerzeugung sollen durch den Einsatz von Künstlicher Intelligenz und der Analyse großer Datenmengen ermöglicht werden. Das Stromnetz soll dank „Jupiter“ effizienter genutzt, Anlagestrategien am Finanzmarkt optimiert oder wirksamerer Medikamente entwickelt werden.
Und wie funktioniert so ein Superrechner?
Im Inneren der 125 Rechenschränke, sogenannte Racks, aus denen „Jupiter“ besteht, sind annähernd 24.000 „Grace Hopper Superchips“ des amerikanischen Chipherstellers Nvidia verbaut. Nvidia gilt derzeit als das wertvollste Unternehmen der Welt und seine Prozessoren als das neue Öl in der Tech-Industrie. Eben weil die speziell für rechenintensive Simulationen – wie etwa bei Modellen zum Klimawandel – und das Training von KI-Modellen optimiert sind. Genau genommen ist jeder einzelne dieser kleinen Hochleistungsprozessoren bereits sein eigener Supercomputer.
Darf es noch ein bisschen mehr sein?
Der „Jupiter“ ist modular aufgebaut, er kann also in Zukunft noch erweitert werden. Und das nicht nur um weitere Grace-Hopper-Chips. Sondern auch um die nächste Rechner-Revolution: Auch Quantencomputer und sogenannte neuromorphe Chips – Mikroprozessoren, die nach dem Vorbild von natürlichen Nervennetzen etworfen sind – soll er in seinen Rechenablauf integrieren können.
Beim Zuse, es wird immer komplizerter: Was macht denn so ein Quantencomputer anders?
Ein Quantencomputer verhält sich zur mechanischen Z1 wie das Raumschiff Enterprise zum Ochsenkarren. Der klassische Computer speichert Informationen in Bits. Die können zwei physikalische Zustände einnehmen: Strom an oder Strom aus, On oder Off, 1 oder 0. Der Quantencomputer verwendet Qubits: Die ermöglichen es subatomaren Teilchen – nach den Lehren der Quantenmechanik –, in mehr als einem Zustand gleichzeitig zu existieren: also 1 und 0. Dadurch können Quantencomputer viele, vielleicht sogar unendlich viele Berechnungen parallel durchführen.
Auch in Jülich forscht man schon seit längerem an Quantencomputern, entwickelt weniger störanfällige Qubits und Kryo-Elektronik zur Steuerung von Qubits bei Temperaturen nahe dem absoluten Nullpunkt von minus 273 Grad Celsius. Vor drei Jahren wurde hier Europas erster sogenannter Quantenannealer vorgestellt, ein System, das mit mehr als 5000 Qubits rechnet. Experten gehen davon aus, dass Quantencomputer in den nächsten ein bis zwei Jahrzehnten bei bestimmten Problemen hundert, tausend oder sogar Millionen Mal schneller sein werden als die aktuelle Generation der Supercomputer.