AboAbonnieren

Mega-Projekt, kaum RegelnTrumps große KI-Pläne: Wie gefährlich wird das für uns?

Lesezeit 7 Minuten
Griff nach den Sternen? Rund 500 Milliarden US-Dollar sollen in ein neues Mega-Projekt für Künstliche Intelligenz fließen. Sein Name: Stargate.

Griff nach den Sternen? Rund 500 Milliarden US-Dollar sollen in ein neues Mega-Projekt für Künstliche Intelligenz fließen. Sein Name: Stargate.

US-Präsident Donald Trump hat ein 500 Milliarden Dollar schweres KI-Projekt angekündigt. Zuvor hebelte er per Dekret eine Reihe von Sicherheitsmaßnahmen aus. Ein Grund zur Sorge?

Wenn jemand dieser Tage über den Amtseintritt Donald Trumps frohlockt, dann ist es wohl die US-amerikanische Tech-Industrie. Bei Trumps Amtseinführung am Montag standen die CEOs von Apple, Google und Amazon in einer Reihe - zuvor hatten sie Millionen für die Feier des neuen Präsidenten locker gemacht. Nur zwei Tage später folgt nun die nächste aufsehenerregende Nachricht für die Branche.

Rund 500 Milliarden US-Dollar sollen in ein neues Mega-Projekt für Künstliche Intelligenz fließen, bei dem in den USA rund 100.000 Jobs geschaffen werden sollen. Das Projekt wird privat von ChatGPT-Entwickler OpenAI und großen Technologiepartnern vorangetrieben - angekündigt wurde es aber am Mittwoch hochoffiziell von Donald Trump.

Geplant ist demnach ein neues Gemeinschaftsunternehmen mit dem Namen Stargate. Dieses soll neue Rechenzentren für Künstliche Intelligenz in Texas bauen, und das innerhalb von vier Jahren. Neben OpenAI beteiligt sind das Unternehmen Oracle, das von dem Trump-Vertrauten Larry Ellison gegründet wurde, sowie der japanische Technologie-Konzern Softbank des Milliardärs Masayoshi Son. OpenAI-Chef Sam Altman nannte das Vorhaben eines der wichtigsten Projekte für die USA.

Trump schafft Sicherheitsmaßnahmen ab

Das Projekt dürfte mit der neuen Trump-Politik in direktem Zusammenhang stehen. Schon am Montag hatte der neue Präsident seinen Fokus auf Künstliche Intelligenz angekündigt und gleichzeitig mehrere Leitplanken gekippt, die sein Vorgänger Joe Biden während seiner Amtszeit noch aufgestellt hatte. Damit können KI-Unternehmen in den USA jetzt noch unabhängiger agieren - zugleich fallen mehrere Sicherheitsmaßnahmen weg.

Biden hatte seinerzeit eine Anordnung erlassen, weil es den US-Gesetzgebern nicht gelungen war, entsprechende Regeln für eine sichere Entwicklung von Künstlicher Intelligenz aufzustellen. Nach den Regeln des ehemaligen US-Präsidenten wurden Entwickler von KI-Systemen verpflichtet, die Ergebnisse von Sicherheitstests mit der US-Regierung zu teilen, bevor sie der Öffentlichkeit zugänglich gemacht werden. Die Regeln galten für Systeme, die als Risiko für die nationale Sicherheit gehandelt werden oder ein Risiko für die öffentliche Gesundheit oder Sicherheit der USA darstellen.

Bidens Anordnung hatte Behörden außerdem angewiesen, Standards für diese Tests festzulegen, um die mit der KI-Entwicklung verbundenen chemischen, biologischen, radiologischen, nuklearen und Cybersicherheitsrisiken anzugehen. Zusätzlich zu der Verordnung sicherte sich die Biden-Regierung die Zusage von 15 führenden KI-Unternehmen, die Sicherheit ihrer Systeme zu erhöhen - die Zusagen basieren allerdings auf Freiwilligkeit.

Hindert Regulierung Innovation?

Kritikerinnen und Kritiker hatten in den vergangenen Jahren immer wieder gegen die Regelungen des früheren Präsidenten protestiert. Nicht wenige hielten sie für hinderlich für das digitale Wettrüsten mit dem Rivalen China. Werde die Entwicklung von KI auf diese Weise eingeschränkt, hindere dies Innovation, so der Vorwurf. Einer dieser Kritiker war auch Trumps enger Vertrauer Elon Musk.

Schon im Wahlkampf hatten die Republikaner daher angekündigt, Bidens Anordnung aufzuheben - stattdessen wolle man eine KI-Entwicklung unterstützen, „die auf freier Meinungsäußerung und menschlichem Wohlergehen beruht.“ Trump versprach „übermäßige Regulierungen drastisch abzubauen“. Ein immer wieder verbreitetes Narrativ: Bidens Anordnung enthalte „radikale linke Ideen“, die Innovationen behindern würden.

Gesagt getan: Seit Trumps Dekret am Montag haben KI-Entwickler zumindest auf Bundesebene keine klaren Verpflichtungen mehr. Unklar war zunächst, ob die neue Trump-Regierung stattdessen neue Regeln plant. Und ebenso unklar ist, welche Folgen eine womöglich unregulierte KI-Entwicklung für die Zukunft haben könnte. Könnte das noch zur Gefahr werden?

Mehr „Meinungsfreiheit“, mehr Diskriminierung

Wahr ist: Die von Joe Biden auferlegten KI-Regeln waren auch bereits von eher von moderater Natur. Im Gegensatz zum KI-Gesetz der Europäischen Union etwa hatten KI-Entwickler deutlich weniger Auflagen. Dennoch fehlt mit der Abschaffung der Regeln nun eine Kontrollinstanz.

Vieles zumindest spricht dafür, dass eine KI-Entwicklung, wie sie sich die Republikaner vorstellen, gesellschaftliche Folgen haben könnte. Die neue Regierungspartei hatte schon im Wahlkampf erklärt, die Behörden sollten sich in Bezug auf KI auf die physischen Sicherheitsrisiken konzentrieren - weniger Fokus liegt demnach auf potenziellen sozialen Schäden. Auch der republikanische Fokus auf „Meinungsfreiheit“ deutet an, wohin die Reise gehen könnte.

Studien haben gezeigt, dass KI-Modelle Vorurteile gegenüber Minderheiten enthalten und Diskriminierungen fördern können - schließlich lernen die Modelle aus historischen Daten. Untersuchungen zeigen auch, dass Menschen, die KI nutzen, die Narrative möglicherweise unbewusst übernehmen. Problematisch könnte das überall dort werden, wo KI künftig eingesetzt werden soll - beispielsweise bei der Polizeiarbeit oder im Gesundheitswesen. Die Entwicklung von diskriminierungsfreier KI könnte unter der neuen Trump-Regierung aus dem Fokus rücken.

Gefahr vor Cyberangriffen

Ein weiteres Gefahrenfeld sind Desinformationskampagnen mit Hilfe von KI. Schon jetzt werden KI-Tools für diese Zwecke missbraucht, zu beobachten war das auch im US-Wahlkampf. Viele KI-Anbieter haben für ihre Modelle eigene Schranken definiert, die verhindern sollen, dass irreführende Bilder, Audiodateien und Videos generiert werden. Unklar ist jedoch, ob ihr Fokus auch nach den neuen republikanischen Vorgaben noch darauf liegen wird.

Völlig unregulierte Künstliche Intelligenz ist auch in der Lage, potenziell schädliche Informationen bereit zustellen. Denkbar wären etwa Informationen zum Bau von Sprengsätzen oder Waffen. Möglich wären aber auch ausgeklügelte Cyberangriffe mithilfe von KI.

Erst im März hatte das US-Außenministerium unter Biden in einem Bericht vor „katastrophalen“ Risiken für die nationale Sicherheit gewarnt, und „notfallmäßige“ regulatorische Schutzmaßnahmen gefordert. Die fortschrittlichsten KI-Systeme könnten im schlimmsten Fall „eine Bedrohung bis zur Ausrottung der Menschheit darstellen“, heißt es in dem Bericht. KI-Angriffe könnten Cyberangriffe „mit schwerwiegender Wirkung“ durchführen, „die kritische Infrastrukturen lahmlegen können“.

Glaubenskrieg in der KI-Branche

Wie gefährlich Künstliche Intelligenz für die Zukunft tatsächlich ist, darüber gibt es auch in der Branche selbst seit jeher hitzige Debatten. Die Frage stand auch Ende 2023 im Mittelpunkt des Richtungsstreits um OpenAI - dem KI-Vorzeigeunternehmen, das jetzt massiv in die Infrastruktur in Texas investieren will.

Damals lautete der Vorwurf, CEO Sam Altman habe das eigentlich auf das Gemeinwohl ausgerichtete Unternehmen zu stark kommerzialisieren wollen und daher dem Risiko durch Künstliche Intelligenz zu wenig Beachtung geschenkt. Andere hochrangige Beschäftigte verließen das Unternehmen, darunter etwa der Informatiker Ilya Sutskever. Er zeigte sich immer wieder besorgt darüber, es könne bald eine KI geben, die schlauer sei als Menschen – die möglichen Konsequenzen dessen wären kaum auszumalen.

Andere wiederum halten solche Befürchtungen für überzogen. Die Gruppe Stochastic Parrots erklärte einmal in einem offenen Brief: „Es ist gefährlich, sich mit einer fantasierten KI-gestützten Utopie oder Apokalypse abzulenken, die entweder eine florierende oder eine potenziell katastrophale Zukunft verspricht.“

Welche Rolle spielt Elon Musk?

Ob unregulierte Künstliche Intelligenz nun gut oder schlecht für die Zukunft sein wird, darüber herrscht offenbar selbst in Trumps neuer Regierung Unentschlossenheit.

Der neue Berater des Präsidenten, Elon Musk, hatte noch 2023 ein Papier unterzeichnet, in dem er und andere Tech-Persönlichkeiten dafür plädierten, die KI-Entwicklung zu unterbrechen. Setze sich die aktuelle Entwicklung ungebremst fort, bedrohe dies die gesamte Menschheit. Musk unterstützte selbst einen Gesetzesentwurf in Kalifornien, der darauf abzielt, die möglichen Folgen von KI zu verhindern.

An seine eigenen KI-Produkte hat Musk derweil weniger hohe Ansprüche. Sein KI-Chatbot Grok war bei seiner Einführung in der Lage, blutrünstige Fake-Bilder zu erstellen und sogar Anleitungen für Bomben auszuspucken. Musk selbst hatte sich zudem in den vergangenen Jahren zunehmend öffentlich radikalisiert.

Was Musk selbst von Trumps neuem Lieblingsprojekt hält, ließ der Tech-Milliardär über seinen Kurznachrichtendienst X wissen: nichts. Das Projekt sei unzureichend finanziert, postete er. „Die haben in Wirklichkeit das Geld nicht“. Stargate sei ein „Fake“.

Musk und OpenAI-Chef Altman sind Intimfeinde, beide liefern sich seit Jahren immer wieder teils hitzige Schlagabtausche. Auch dieses Mal ließ der Konter nicht lange auf sich warten. „Mir ist klar, dass das, was für unser Land großartig ist, nicht immer auch das Optimum für Ihr Unternehmen ist, aber ich hoffe, dass Sie in Ihrer neuen Rolle vor allem die USA an die erste Stelle setzen werden“, schrieb Altman ebenfalls bei X.

Bundesstaaten haben eigenen KI-Regeln

Das Aufheben von Bidens KI-Anordnung bedeutet aber nicht, dass die Entwicklung in den USA nun gänzlich unreguliert vonstatten gehen kann. Aktuell gibt es in den Vereinigten Staaten einen Flickenteppich von Regeln, die je nach Bundesstaat entschieden werden. In 45 Bundesstaaten sowie in Washington D.C., Puerto Rico und den Amerikanischen Jungferninseln wurden zahlreiche KI-Gesetze verabschiedet.

Ein Beispiel: Im demokratisch geführten New York muss jedes Unternehmen, das KI zur Personalbeschaffung einsetzt, einen unabhängigen Prüfer damit beauftragen, die Voreingenommenheit des Systems zu überprüfen.

Auch im Bundesstaat Texas, in dem nun das neue Megaprojekt entstehen soll, wurden schon mehrere Gesetzesentwürfe eingereicht, etwa der „Texas Responsible AI Governance Act“. Auch sie ernten zum Teil Kritik, weil befürchtet wird, dass sie die Innovationskraft hemmen könnten.

Die Konkurrenz schläft nicht

Das Projekt Stargate zumindest hat das Potenzial die USA langfristig zur KI-Supermacht zu machen. Bei ihrem Vorhaben haben die Vereinigten Staaten durchaus Konkurrenz: China entwickelt ebenfalls eigene KI-Tools, und auch die Öl-Scheichtümer im Mittleren Osten nutzen ihren Reichtum, um sich als KI-Dienstleister zu etablieren.

Zuletzt hatten die USA - damals noch unter Biden - versucht, mit verschärften Exportregeln und dem sogenannten AI-Diffusion-Rule die Fortschritte der Rivalen einzudämmen.