Seit Sam Altman vom OpenAI-Verwaltungsrat entlassen wurde, rätseln Experten über den Grund. Die Antwort ist ziemlich bizarr.
Wirtschaftskrimi um OpenAIDieser irre Glaubenskrieg verbirgt sich hinter Sam Altmans Rauswurf
Informatiker, deren erklärtes Ziel es ist, Maschinen intelligent zu machen, stellt man sich als rational handelnde Menschen vor. Ein Vorurteil, das man spätestens seit dem vergangenen Wochenende revidieren muss, an dem der Verwaltungsrat des Softwareunternehmens OpenAI völlig überraschend seinen Mitgründer und CEO Sam Altman entlassen hat. Seither fragen sich Angestellte, Anleger und Wirtschaftsredakteure, was bloß passiert war, in dem ehemaligen Non-Profit, das als Motor eines Zeitenbruchs galt und sich nun selbst zu zerlegen schien.
Mit seinem Chatbot ChatGPT und seinem Bildgenerator DALL-E hat OpenAI die derzeitige Künstliche-Intelligenz-Revolution ausgelöst. Plötzlich betraf ein Thema, das zuvor nur in Expertenkreisen diskutiert wurde, Millionen von Menschen unmittelbar in ihrem Alltag. Und es war Sam Altman, der zum Gesicht der KI wurde – halb Johannes Gutenberg, halb James Watt – zur Projektionsfläche all der Ängste und Hoffnungen, die sich an das maschinelle Lernen richten.
War Sam Altman seinem Verwaltungsrat zu unvorsichtig?
Diese irrationalen Ängste und übertriebenen Hoffnungen mochten der Tatsache geschuldet sein, dass man hier als Laie mit einem nicht nur äußerst komplexen, sondern geradezu undurchschaubaren System konfrontiert war, einer Black Box. Insider können sicherlich nüchterner abschätzen, wozu genau ihre selbstlernenden Systeme fähig sind und wozu nicht. Nennen wir es die Rationalität-Vermutung. Doch die führt in die Irre.
Wenige Tage nach Altmans spektakulärem Rauswurf kristallisiert sich immer deutlicher der Glaubenskrieg heraus, der derzeit in der KI-Gemeinde tobt und der für Außenstehende zunächst völlig irre klingt. Man ist versucht, ihn auch als solchen abzutun, aber da der Ausgang dieses Konflikts uns mehr oder weniger alle betrifft, wollen wir ihn lieber erklären.
Die philosophischen Strömungen, die in der Frage, wie man bei der Entwicklung von KI weiter vorgehen soll, aufeinanderprallen, nennen sich Effektiver Altruismus, kurz EA, und Effektiver Akzelerationismus, oft als „e/acc“ abgekürzt. Von den vier Mitgliedern des Verwaltungsrates, die Altmans Entlassung vorangetrieben haben, hegen mindestens drei gesicherte Sympathien für EA. Ebenso Emmett Shear, der als Nachfolger Altmans berufen wurde.
Altman und sein ebenfalls geschasster Chief Technology Officer Greg Brockman lassen sich nicht ganz so eindeutig der Gegenseite zurechnen, werden von dieser aber gefeiert. Das bringt uns zur wichtigsten Frage: Warum haben wir noch nie von EA oder e/acc gehört? Was für philosophische Positionen sollen das überhaupt sein?
Was ist Effektiver Altruismus?
EA konzentriert sich auf die Grundfrage: „Wie können wir unsere Ressourcen am besten nutzen, um anderen zu helfen?“ Ein wichtiger Einfluss sind die Schriften des australischen Philosophen Peter Singer, einem der zeitgenössischen Hauptvertreter des Utilitarismus, also einer zweckorientierten Ethik, bei der sich die Bewertung, ob eine Handlung richtig oder falsch ist, aus ihrem Gesamtnutzen für die größtmögliche Anzahl an Menschen (bei Singer auch Lebewesen im Allgemeinen) ergibt. Der schottische Philosoph William MacAskill, einer der Mitbegründer von EA, leitet daraus die Ideologie des „Longterminism“ (etwa: Langfristigkeitsdenken) ab: Man soll bei seinen Handlungen auch die Milliarden von künftig lebenden Menschen bedenken, das habe absoluten moralischen Vorrang. Daraus ergibt sich vordringlich die Aufgabe, die Menschheit vor dem Aussterben zu bewahren.
Aber was hat das mit OpenAI zu tun?
MacAskills Buch „Was wir der Zukunft schulden“ gilt als Silicon-Valley-Bibel. Darin identifiziert der Autor zwei Hauptgefahren: künstlich erzeugte Krankheitserreger und eine fehlgeleitete Künstliche Allgemeine Intelligenz (AGI), also ein Computerprogramm, das jede intellektuelle Aufgabe übernimmt und übertrifft, die ein Mensch ausführen kann. OpenAI wurde 2015 unter anderem von Altman und Elon Musk als Non-Profit-Unternehmen gegründet, weil man die KI-Entwicklung nicht Firmen überlassen wollte, denen die Frage nach den möglichen Gefahren von KI zweitrangig erscheint. Ja, Altman will letztlich eine AGI entwickeln, aber eben verantwortungsbewusst. Strittig ist nur, ob er dabei verantwortungsvoll genug vorgeht. Musk trat deshalb bereits 2018 aus dem OpenAI-Verwaltungsrat zurück. In Sachen KI gilt der umstrittene Tesla-Chef als ultravorsichtig, obwohl er in anderen Belangen zuverlässig e/acc-Positionen vertritt.
Und was bitteschön wollen die Vertreter des Effektiven Akzelerationismus?
Die zeichnen sich durch eine extrem technologiefreundliche Haltung aus, eigentlich ein Klassiker: Den Fortschritt kann man nicht aufhalten, also warum sollte man seine Zeit mit dem Versuch verschwenden, das zu tun? Mahnende Stimmen in Sachen KI verspotten e/acc-Anhänger als Untergangspropheten oder „Decels“, abgeleitet von „deceleration“, Verzögerung. EAs warnen vor der Möglichkeit einer Technologischen Singularität, dem hypothetischen Zeitpunkt, an dem KI die menschliche Intelligenz übertrifft und die Evolution in hoher Beschleunigung ohne den Menschen fortschreitet. e/acc-Anhänger sehnen diese Singularität herbei. Musk und Altman teilen den Science-Fiction-Traum des Longterminism, nach dem die Zukunft der Menschheit in einer Kolonisierung des Weltraums liege. Aber Altman glaubt, dass dies nur mithilfe einer Künstlichen Allgemeinen Intelligenz gelingen kann.
Das ist doch nur Zukunftsmusik, Kleine-Jungs-Fantasien!
Ja, und eine Singularität bleibt äußerst unwahrscheinlich. Es gibt drängendere Menschheitsprobleme. Trotzdem: Die ideologischen Unterschiede von EA und e/acc sind offensichtlich der Grund, warum der CEO des spannendsten Unternehmens der Welt seinen Hut nehmen musste. Offensichtlich wollte der Verwaltungsrat die Menschheit vor den Produkten des eigenen Unternehmens bewahren. Das kam bei den Anlegern erwartungsgemäß nicht gut an und offensichtlich sind viele OpenAI-Angestellte bereit, Altman zu Microsoft zu folgen, wo er ein KI-Forschungsteam leiten soll, dass sich wohl weniger um die Bedenken der EAs kümmern wird. Mit anderen Worten, die Beschleuniger haben gewonnen. Und das wiederum wird Konsequenzen für uns alle haben.