Vor KI-Gefahren wird gerade viel gewarnt. Leider oft vor den falschen. Welche Ängste übertrieben sind - und was uns wirklich Sorgen machen sollte. Eine Auswahl.
Risiken der TechnikUm diese fünf KI-Gefahren sollten sich Gesellschaft und Politik wirklich kümmern
Es ist nur eine kurze Meldung. Eine Nachricht, die auf den ersten Blick wirklich nicht von großer, überregionaler Relevanz zu sein scheint: Ein Kunstkreis in Niedersachsen stellt seinen Schreibwettbewerb für Jugendliche ein. Nicht, weil sich nur noch eine Handvoll von Kindern daran beteiligt hatten. Sondern wegen ChatGPT. Man könne angesichts dieser Technologien ja nicht mehr überprüfen, wer die Texte geschrieben habe, wird eine Vereinsvorsitzende in der „Hannoverschen Allgemeinen Zeitung“ zitiert. Also gibt es in Laatzen jetzt keinen Schreibwettbewerb mehr.
Warum die Entscheidung eines einzelnen Kunstvereins wichtig ist? Weil sie für ein viel größeres Problem steht. Weil sie einerseits zeigt, wie tief die Anwendungen künstlicher Intelligenz (KI) schon in unsere Gesellschaft hineinreichen. Und gleichzeitig, wie unbeholfen wir im Umgang mit ihr noch sind. Weil da eine neue Technologie unser Leben verändern wird, der wir oft noch ratlos gegenüberstehen.
Sollen wir eine Zukunft mit KI fürchten – oder uns auf sie freuen? Und wenn ja, warum? Das lässt sich nur sagen, wenn wir die echten Gefahren, die von der Technologie ausgehen, besser einschätzen können.
Gefahr Nummer eins: Wir überschätzen KI
Die Erzählung geht immer ähnlich: Eine künstliche Intelligenz wird so mächtig, dass der Mensch die Kontrolle über sie verliert. Sie ist klüger, sie ist gerissener, sie ist böse, sie entwischt. Dann nutzt sie ihre kognitive Überlegenheit, um die Menschen zu unterdrücken, sie auszubeuten und zu versklaven. „Sorgen und apokalyptische Befürchtungen vor KI treten, genauso wie teils extreme hohe Erwartungen, seit den 1970er-Jahren in wiederkehrenden Wellen auf“, sagt Armin Grunwald, Experte für Technikfolgenabschätzung vom Karlsruher Institut für Technologie dem „Science Media Center“.
Derzeit befinden wir uns – dank ChatGPT und anderen KI-Sprachmodellen – wieder einmal mitten drin in einer solchen Welle. Kürzlich etwa warnte Elon Musk gemeinsam mit Forschenden vor einer „drohenden Katastrophe“ und forderte eine sechsmonatige „Denkpause“.
Doch Warnungen vor einer übermächtigen KI machen die Technologie zu etwas, das sie nicht ist. Der offene Brief von Musk und Co. suggeriere „völlig übertriebene Fähigkeiten von KI-Systemen und stilisiert sie zu mächtigeren Werkzeugen, als sie eigentlich sind“, sagt der KI-Forscher Thilo Hagendorff von der Universität Stuttgart. Viele Experten und Expertinnen sehen das genauso. Dass etwa Roboter ein Bewusstsein erlangen könnten, sei „nach aktuellem Kenntnisstand so unrealistisch, dass wir uns da meiner Meinung nach keine Gedanken zu machen müssen“, sagt Sandra Wachter, Expertin für rechtliche und ethische KI-Implikationen an der Universität Oxford.
Das trotzdem oft so getan wird, als sei es nur eine Frage der Zeit, bis KI die Weltherrschaft übernimmt, liegt auch daran, dass das ordentlich Aufmerksamkeit erzeugt – ob für journalistische Texte, zweifelhafte KI-Lösungen oder das neuste OpenAI-Produkt. Die Erzählung von der überlegenden KI kann daher auch eine Marketingstrategie sein. Doch sie ist aus drei Gründen gefährlich: Zuerst, weil sie von den eigentlichen Gefahren (siehe unten) ablenkt.
Zweitens, weil sie dazu führen könnte, dass etwa Regierungen aus lauter Sorge vor einer übermächtigen KI ihren Nutzen als Werkzeug ausbremsen. „Es gibt kaum einen Lebensbereich, der nicht positiv von der KI beeinflusst würde“, sagt Kristian Kersting, Experte für maschinelles Lernen von der Universität Darmstadt. Es sei eben „auch gefährlich, erst verzögert intelligente KI-Systeme zu besitzen“, meint auch Hagendorff. Eine KI, die schon heute zuverlässig Brustkrebs erkennen kann, kann eben auch schon heute helfen, Leben zu retten.
Und drittens, produziert ein Hype zwangsläufig Enttäuschungen. Wer beim Schreiben mit ChatGPT eine KI erwartet, die alles weiß und jeden kennt, muss schnell das Gegenteil feststellen. Dann liegt auch der Umkehrschluss nahe: KI ist gar nicht „intelligent“, sondern „dumm“ – und damit nutzlos. Darin liegt eine ganz eigene Gefahr (siehe unten).
Gefahr Nummer zwei: Wir unterschätzen KI
„Stochastischer Papagei“ oder „Textautomat“– diese Beschreibungen sollen deutlich machen: Was im Fall von ChatGPT oder anderen Sprach-KIs leicht mit einer empfindungsfähigen Maschine verwechselt werden kann, ist nur eine Technologie, keine Magie. Das stimmt. Und dennoch: Um unsere Gesellschaft radikal zu verändern, brauchen KIs kein Bewusstsein oder gar einen Körper. Schon eine „dumme“ und nicht allwissende oder alles könnende KI-Technologie reicht dazu völlig aus. Hinzu kommt: Viele Dinge, die eine KI derzeit noch nicht kann, kann sie genau das: noch nicht.
Texte generieren, Bilder von einer KI erstellen lassen, das lässt sich derzeit leicht selbst ausprobieren. Doch was im Hype um ChatGPT und Co oft untergeht, ist, dass KI deutlich mehr als nur überzeugend chatten kann. Ein Beispiel: Früher brauchte es sehr viel Zeit und noch mehr Geld, um die Struktur eines Proteins zu bestimmen. Heutzutage kann das Alpha Fold der Firma Deep Mind. Das klingt, wenn man sich in dem Bereich nicht gut auskennt, vielleicht nicht aufregend. Ist aber ein solcher naturwissenschaftlicher Durchbruch, dass der „Spiegel“ schon fragte: „Sollte diese Maschine den Nobelpreis bekommen?“
Und so wird die KI-Technologie – wie einst das Internet – sehr wahrscheinlich jeden denkbaren Bereich unserer Gesellschaft umwälzen. Ob das die Cybersecurity ist, die Geopolitik, die Medizin, das Recht. Die Folgen dieser KI-Revolution, so glauben viele Expertinnen und Experten, werden massiv sein. „Fundamentale Kulturtechniken wie Lesen und Schreiben sowie primäre Informationsverarbeitung werden sich in Kürze radikal verändern“, erklärt Peter Dabrock, Professor für Systematische Theologie an der Universität Erlangen-Nürnberg.
Wir Menschen bilden uns dennoch weiterhin gerne etwas auf unsere Einzigartigkeit, unsere vermeintlich besondere Kreativität ein. Doch KIs werden nicht nur die Berufe bedrohen, die aus der Wiederholung der immer gleichen Tätigkeiten bestehen. Auch Journalistinnen, Mathematiker, Programmierinnen, Buchhalter müssen sich um ihre berufliche Zukunft Gedanken machen. Eine Forschungsabteilung der Investmentbank Goldman Sachs geht davon aus, dass etwa zwei Drittel der derzeitigen Arbeitsplätze einem gewissen Grad an KI-Automatisierung ausgesetzt sind. Die generative KI könne bis zu einem Viertel der derzeitigen Arbeit ersetzen. „Rechnet man unsere Schätzungen auf die ganze Welt hoch, so könnte generative KI das Äquivalent von 300 Millionen Vollzeitarbeitsplätzen der Automatisierung aussetzen“, heißt es.
Das Problem: Obwohl sehr viele Menschen wissen (laut einer aktuellen Erhebung immerhin 62 Prozent der US-Amerikanerinnen und US-Amerikaner), dass KI am Arbeitsplatz in den nächsten Jahren sehr große Auswirken haben wird, denkt nur ein Bruchteil (28 Prozent), dass KI sie persönlich in großem Ausmaß betreffen werde. Doch wer heute noch glaubt: „Das was ich mache, kann keine Maschine!“ – sollte lieber ein „noch“ davorsetzen.
Gefahr Nummer drei: KI manipuliert
Gefälschte Texte, gefälschte Videos, gefälschte Stimmen: Die Angst, dass es mithilfe von KI noch einfacher geworden ist, Desinformation zu streuen, ist derzeit groß. Und sie ist vollkommen berechtigt. Eine „maliziöse Flutung von schwer überprüfbaren Fakeinformationen via Schrift, Videos und Bildern werden Konzepte von Wahrheit und Wirklichkeit noch mehr unter Druck setzen“, sagt Dabrock. Wie bereitwillig KI-Bilder und Aufnahmen schon heute eingesetzt werden, zeigt sich zum Beispiel im aktuellen US-Wahlkampf. Den Auftakt macht das erste, komplett von einer KI erstellte Wahlkampfvideo, das ein dystopisches Amerika unter Präsident Biden zeigt.
Manipulierte Bilder und Videos sind allerdings nur Mittel zum Zweck. Wer eigentlich manipuliert wird, sind wir Menschen. Und darin, das zeigt sich immer wieder, scheinen besonders Sprachmodelle erstaunlich gut zu sein. So groß, sie zu vermenschlichen, ist der Impuls, dass es selbst KI-Profis schwerfällt, zu verinnerlichen, dass die KI, mit der sie so lebensnah chatten, nicht versteht, was sie sagt. Dass sie „keine Empathie lernt, sondern die bloße Modellierung dieser“, wie es Innovationsrechtsexperte Matthias Kettemann von der Universität Innsbruck ausdrückt.
Die unmittelbaren Gefahren dieser fast schon zwanghaften Vermenschlichung sind klar: Wenn Nutzerinnen und Nutzer den Sprach-KIs zu sehr vertrauen, könnten sie „intime Informationen preisgeben oder Ausgaben der Sprachmodelle nicht ausreichend hinterfragen“, sagt Hagendorff. Und für wen sind solche intimen Daten besonders interessant? Unter anderem für genau die Unternehmen, die damit schon im Web 2.0 ihr Geld gemacht haben (siehe unten).
Aber auch Cyberkriminelle werden sich das zunutze machen. Schon heute fallen zahlreiche Menschen auf Phishing Mails oder Enkeltricks herein. Was passiert, wenn die Angriffe mit noch weniger Aufwand noch überzeugender sind? Was wenn ein Deepfakeracheporno nicht als gefälscht zu erkennen ist – und das für den Schaden, den es anrichtet, auch gar keine Rolle mehr spielt? Wie verhindern Firmen, dass die Identität von Menschen gekapert wird – und damit Firmengeheimnisse geklaut werden? Wie schützen wir Großeltern vor einem „Enkel“, der am Telefon nicht nur die Stimme verstellt, sondern dank KI tatsächlich mit dessen Stimme spricht? Die Möglichkeiten, um Menschen mittels KI zu manipulieren, scheinen schier endlos.
Dazu kommt, dass die Beziehung, die Menschen zu KIs aufbauen (werden), alles andere als rational sind. Im Gegenteil: Sie sind höchst emotional. Die Autorin Kate Darling vergleicht zum Beispiel die Bindung zu Robotern mit der Bindung, die viele Menschen zu ihrem Haustier haben. Diese Beziehung lässt sich leicht erpressen: Wie viel wird es Ihnen Wert sein, den Therapiechatbot, mit dem Sie so viele Ihrer intimsten Gedanken geteilt haben, am Leben zu halten? 5 Euro im Monat? 10 Euro? Der Technikjournalist Casey Newton geht noch einen Schritt weiter: „Ich denke, in sehr naher Zukunft werden wir Religionen sehen, die sich dieser Art von Dingen verschrieben haben.“
Gefahr Nummer vier: KI ist nicht unparteiisch
Dass eine KI nur so gut ist, wie die Daten, die ihr zugrunde liegen, ist inzwischen bekannt. Sind die Daten oder Programmierteams schlecht ausgewählt, transportieren sie etwa Diskriminierung oder Sexismus, dann produziert auch die KI sexistische oder diskriminierende Ergebnisse. Die Angst, dass eine künstliche Intelligenz eigenmächtige Entscheidungen trifft, bei denen Menschen zu Schaden kommen, ist deshalb groß.
Meistens liegt dabei aber der Fokus auf Entscheidungen, bei denen es um nicht weniger als um Leben oder Tod geht. Ein autonomes Auto, das im Notfall selbst festlegt, wen es überfährt? Eine KI, die eigenständig entscheidet, wer auf einem Schlachtfeld sterben wird? Es ist zwar ganz natürlich, dass ein solcher Kontrollverlust unheimlich erscheint. Ja, dass ein Arzt oder eine Ärztin mit einem Körper auch dann noch vertrauensvoller als eine KI-Blackbox auf uns wirkt, wenn dieser Körper völlig übermüdet ist. „Mit einem Menschen, zum Beispiel einer Ärztin, können wir (…) interagieren. Sie kann uns ihren Gedankenweg erklären und die Entscheidung ändern, wenn wir im Gespräch einen falschen Schritt aufdecken“, sagt der Computerlinguist Hinrich Schütze, von der Ludwig-Maximilians-Universität München. Wie die KI zu ihrer Entscheidung gekommen ist, wissen wir dagegen nicht.
Trotzdem verschleiert die Angst vor der fehlbaren KI, die zum Killer wird, das viel größere Risiko. Man muss es immer wieder betonen: KI ist ein Werkzeug. Die eigentliche Gefahr schlummert nicht in ihr selbst – sondern in der Frage, wer sie zu welchen Zwecken einsetzt. „Das Problem der aktuellen KI-Entwicklung ist nicht der drohende Machtverlust an Algorithmen, sondern die Machtkonzentration über die zukünftige Gesellschaft in den intransparenten Händen weniger“, sagt Grunwald. Dass gerade jeder und jede nach Lust und Laune mit ChatGPT chatten kann, sollte nicht darüber hinwegtäuschen: Jede KI hat einen Besitzer oder eine Besitzerin. Das ist die Person, die am Ende die Rechnungen zahlt und den Code besitzt. In der Regel also entweder eine Supermacht oder ein super großer Techkonzern.
So hat Meta-Chef Mark Zuckerberg kürzlich erst angekündigt, Milliarden Menschen mit KI-Agenten versorgen zu wollen. Microsoft kooperiert mit OpenAI und der Google-Konzern Alphabet ist schon seit Jahren eine der großen KI-Schmieden der Welt. KI-Entwicklung ist nicht billig. Wenn man dem Versprechen der Konzerne, sie wollten unser aller Leben nur besser machen, also auch nur im Ansatz skeptisch gegenüber steht, darf man sich ruhig fragen: Was springt für Google, Meta und Co dabei heraus? Was ist das Geschäftsmodell, das hinter ihrer KI-Technologie steht?
„Das Zeitalter der kostenlosen, lustigen Demos wird enden, wie es immer der Fall ist“, schreibt auch „NYT“-Kolumnist Ezra Klein. Und dann? Viele Expertinnen und Experten halten es für sehr wahrscheinlich, dass die Techkonzerne versuchen werden, mit KI so Geld zu verdienen, wie sie es schon immer getan haben: durch Anzeigen. Eine KI, die ihm ihre Liebe erkläre, mache ihm daher weniger Sorgen, schreibt Klein. Eine KI, die „Zugriff auf Unmengen meiner persönlichen Daten hat und kühl versucht, mich im Namen des Werbetreibenden zu manipulieren, der der Muttergesellschaft das meiste Geld gezahlt hat“ dagegen schon.
Dabei dürften die Interessen von Techgiganten sogar noch vergleichsweise harmlos sein. „OpenAI, Microsoft und Google sind zwar Wirtschaftsunternehmen, die primär Geld verdienen wollen“, sagt Schütze. „Aber ich habe mehr Vertrauen zu ihnen als zu undemokratischen Regimen und kriminellen Organisationen.“
Gefahr Nummer fünf: Die wahren Kosten von KI sind unsichtbar
Was ankommt, ist ein Text im Chatfeld. Was Spaß macht, ist das verrückte Bild. Was dahinter steckt, ist unsichtbar. KI ist in der Vorstellung vieler ein körperloses Wesen. Eine Intelligenz, aufgebaut aus Codes, die gerade zu magisch Ergebnisse aus der Luft zu pflücken scheint. Fernab von jeder Weltlichkeit und neutral gegenüber Problemen wie der Klimakrise oder sozialer Ungerechtigkeit. Das Gegenteil ist der Fall.
Das Training und die Nutzung von Sprachmodellen, geht mit einem „immensen Stromverbrauch“ einher, sagt Hagendorff. Die „Süddeutsche Zeitung“ hat kürzlich einen Experten annähernd ausrechnen lassen, wie viel Strom alleine die eine Milliarden Anfragen an ChatGPT im Februar 2023 verbraucht haben. Die Antwort: 581 Gigawattstunden, was wiederum rund 244.000 Tonnen CO₂ entspreche. Doch nicht nur große Modelle wie ChatGPT haben einen enormen Energieverbrauch. „Wenn man (…) ein paar Nummern kleiner schaut, werden aktuell sehr viele Modelle trainiert und man muss sich – vielleicht ähnlich wie bei Tierversuchen – fragen, was das Verhältnis von Aufwand und Nutzen beziehungsweise Erkenntnisgewinn ist“, sagt die Informatikerin Ute Schmid von der Otto-Friedrich-Universität Bamberg.
Auch die Vorstellung, dass man große KI-Modelle wie GPT-3 nur mit Daten „füttern“ muss, ist falsch. Über „die große Menge an schlecht bezahlter menschlicher Arbeit, die in das Training solcher KI-Systeme einfließt“, werde kaum gesprochen, kritisiert Schmid.