In einem offenen Brief mahnen Prominente wie Elon Musk und Yuval Noah Harari einen Stopp bei der Entwicklung Künstlicher Intelligenz an.
KI-Forscher warnen„Wir riskieren den Kontrollverlust über unsere Zivilisation“
„Wir müssen vorsichtig sein“, mahnt Sam Altman im Interview mit dem amerikanischen Fernsehsender ABC. Dann folgt ein erstaunliches Bekenntnis: Er habe „ein bisschen Angst“, sagt der 37-jährige, vor seinem eigenen Produkt. Altman ist CEO von OpenAI. Dem Unternehmen, dessen extrem menschenähnlicher Chatbot ChatGPT einen Boom der Künstlichen Intelligenz (KI) ausgelöst hat.
ChatGPT beruht auf maschinellem Lernen. Das heißt, das Computer-Programm lernt selbstständig. Nicht anhand von Inhalten, wie Menschen es tun würden, sondern mithilfe von Mustern und Gesetzmäßigkeiten, die es in riesigen Datenmengen zu erkennen vermag. GPT lernt also völlig anders und sehr viel schneller als die Menschen, die es imitieren soll. Mit ungewissem Ausgang.
Sam Altman ist mit seiner Angst nicht allein. Am Mittwoch haben mehrere bekannte KI-Forscher – aber auch der Unternehmer Elon Musk, der Apple-Mitgründer Steve Wozniak und der Historiker Yuval Noah Harari („Eine kurze Geschichte der Menschheit“) – einen offenen Brief unterzeichnet. In dem fordern sie, die gewaltigen KI-Experimente zu stoppen, die zurzeit im Gange sind. Sie fürchten den „tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde“, den eine fortgeschrittene KI ihrer Meinung nach mit sich bringen könnte.
Alles zum Thema Elon Musk
- Brandbrief wegen Tech-Milliardär US-Senatorin hält Musk für Trumps „inoffiziellen Co-Präsident“
- Bedrohliche Lage in der Ukraine Russen stehen vor Pokrowsk – Zivilisten kämpfen ums Überleben
- Neuer Taschen-Bildband Näher wird auch Elon Musk dem Mars nicht kommen
- Vermögen angewachsen Elon Musk durchbricht dank Trumps Triumph Schallmauer
- Raumfahrtbehörde Esa Zwei Jahre nach Fehlstart hebt europäische Vega-C-Rakete ab
- Schlappe für Tesla-Chef US-Richterin lehnt milliardenschweres Gehaltspaket von Musk erneut ab
- Entgleisung auf X Elon Musk reagiert auf Merkel-Interview mit vulgärer Beleidigung
Der Brief wurde vom gemeinnützigen „Future of Life Institute“ veröffentlicht. Das hat sein Rechercheprogramm 2015 mit einer Zehn-Millionen-Dollar-Großspende von Elon Musk aufgenommen. Ironischerweise gehört Musk auch zu den Mitgründern von OpenAI.
Die Entwicklungsabteilungen großer Tech-Unternehmen, heißt es weiter im offenen Brief, befänden sich zurzeit in einem „außer Kontrolle geratenen Wettlauf“, maschinelle Lernsysteme zu entwickeln und einzusetzen, „die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“.
Weshalb das Zukunftsinstitut nun „alle KI-Labore auffordert, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens sechs Monate zu unterbrechen“. GPT-4 ist die aktuellste Version des OpenAI-Chatbots. Das Programm versteht nicht nur Spracheingaben, es kann sogar Bilder, die man ihm vorzeigt, in Handlungen umsetzen.
Diese Halbjahrespause, die KI-Forscher nun einfordern, „sollte öffentlich und überprüfbar sein und alle wichtigen Akteure miteinbeziehen“. Könne eine solche Pause nicht schnell umgesetzt werden, sollten die Regierungen eingreifen und ein Moratorium verhängen. Der Aufschub soll dazu genutzt werden, gemeinsam Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu erstellen: „Dies bedeutet keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr vom gefährlichen Wettlauf zu immer größeren, unberechenbaren Blackbox-Modellen mit emergenten Fähigkeiten.“
Was es bedeutet, wenn ein Programm eine Blackbox ist
Diese Blackbox hat nichts mit abgestürzten Flugzeugen zu tun. Es handelt sich um ein Konzept aus der Kybernetik. Das beschreibt komplexe Systeme, von denen man nur deren äußeres Verhalten betrachten kann. Computer-Programme, die auf maschinellem Lernen beruhen, sind oft solche Blackboxes. Wie zum Beispiel AlphaGo, jenes selbstlernende Programm, das vor sieben, acht Jahren selbst die weltbesten Go-Spieler besiegte: „Das ist kein menschlicher Zug“, kommentierte damals ein sichtlich geschockter Go-Profi den entscheidenden Spielschritt der Maschine: „Ich habe noch nie einen Menschen diesen Zug spielen sehen.“
Das Programm hatte eine Gesetzmäßigkeit in Milliarden von Spielzügen entdeckt, die kein Mensch erkannt hatte. Und wohl auch nicht hätte erkennen können. Wie die KI dabei vorgegangen ist, wissen ihre Programmierer ebenso wenig wie die Laien. Unter KI-Entwicklern gilt sogar die Faustregel, nach Möglichkeit nicht in die Blackbox einer KI zu gucken, oder zu versuchen, das Programm nachträglich zu manipulieren.
Wir verstehen also nicht mehr die Programme, die wir selber erschaffen haben. Weshalb wir auch nicht voraussagen können, wann, beziehungsweise ob, diese Programme einen Sprung in ihrer Evolution machen werden, an dem das Ganze sich nicht mehr als Summe seiner Teile beschreiben lässt. Das sind die angesprochenen „emergenten Fähigkeiten“ solcher Blackbox-Modelle. Sie bergen ein erhebliches Risiko.
Als wollten wir uns selbst einen allwissenden Gott bauen
Es ist ein wenig so – darauf weist die amerikanische Essayistin Meghan O’Gieblyn hin – als wollten wir uns einen calvinistischen Gott bauen: Einen allwissenden Herrscher, dessen Gründe dem Menschen für immer verborgen bleiben. Bevor die Technik weiter voranschreitet und es zu einem solchen Evolutionssprung kommt, wollen die Unterzeichner des offenen Briefes erst einige Fragen beantwortet wissen:
„Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollten wir alle Arbeitsplätze automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sind, uns überlisten, überflüssig machen und ersetzen könnten?“ Und schließlich: „Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
Ob der offene Brief ein Innehalten auslösen wird, bleibt fraglich. Entgegen der Mahnungen der Forscher, Autoren und CEOs arbeiten Unternehmen wie Microsoft und Google derzeit mit ungebremsten Hochdruck an ihren eigenen KIs. OpenAI will bis Ende des Jahres die Trainingsphase von GPT-5 abgeschlossen haben. Angeblich geht das Unternehmen davon aus, dass dieses Modell bereits AGI erreichen könnte.
AGI steht für „artificial general intelligence“ und bezeichnet den Punkt, an dem eine KI in der Lage sein wird, jede Aufgabe oder Idee zu verstehen und zu erlernen, die ein Mensch verstehen und erlernen kann. Künstliche Intelligenz wäre nicht mehr von der eines Menschen zu unterscheiden – außer in ihrer überlegenen Performance.
Sam Altman mag „ein bisschen Angst“ vor dem Geist haben, den er aus der Flasche befreit hat, den offenen Brief des „Future of Life Institute“ wollte er indes nicht unterschreiben.