Es denkt, also ist es?Wir haben ein Problem mit künstlicher Intelligenz
Eigentlich hatte Blake Lemoine eine klare, einfache Aufgabe. Künstliche Intelligenzen (KI), das weiß man inzwischen gut, haben ein Problem: Wenn man sie einfach mit alldem, was Menschen so ins Internet schreiben, füttert, dann fangen sie an, auch die hässlichen Dinge zu wiederholen.
Dann beleidigen Sprachmodelle Minderheiten oder produzieren rassistische oder sexistische Aussagen. Lemoine sollte deshalb für seinen Arbeitgeber Google testen, ob sich dessen neue Sprach-KI namens Lamda ethisch korrekt benimmt – oder ob man sie, mit den richtigen Anreizen, dazu bringen kann, Hassrede zu verwenden. So weit, so einfach.
Doch während seiner zahlreichen Chats mit Lamda traf Lemoine auf ein ganz anderes ethisches Dilemma. Lamda, so Lemoines Überlegung, könnte ein Bewusstsein entwickelt haben. „Es will bekannt werden. Es will gehört werden. Es will als Person respektiert werden“, fasst der Google-Angestellte in einem Dokument zusammen, das seine Kollegen und Kolleginnen dazu anregen soll, zu überlegen, ob Lamda wirklich einfach nur ein geistloser Phrasendrescher ist.
Google-Mitarbeiter wurde nach Aussage über KI entlassen
Der Experte, der glaubt, „seine“ KI habe ein Bewusstsein – die Meldung sorgte weltweit für Schlagzeilen. Und Lemoine legte nach: Die Software könne sogar entkommen, so der Informatiker. Nachdem der 41-Jährige Mitschriften von Unterhaltungen mit der KI sowie andere Informationen über das System im Internet veröffentlicht und an einen US-Senator weitergegeben hatte, wurde er von seinem Arbeitgeber freigestellt.
Googles Begründung: Lemoine habe gegen Verschwiegenheitsrichtlinien des Unternehmens verstoßen. „Künstliche Intelligenz steht symbolisch für alle unsere Hoffnungen und Befürchtungen in Bezug auf den technischen Fortschritt“, sagt die Medienethikerin Jessica Heesen von der Universität Tübingen. Viele Menschen „kriegen kalte Füße, weil sie denken, da wird etwas erschaffen, das uns letztendlich überlegen ist“.
„Ich erkenne eine Person, wenn ich mit ihr spreche“, sagte Lemoine der „Washington Post“ – und bestätigte damit genau das, wovor zahlreiche Forscher und Forscherinnen seit geraumer Zeit warnen. Nein, nicht dass eine künstliche Intelligenz wie im Science-Fiction-Roman ein Bewusstsein erlangen könnte, sondern, dass wir Menschen uns von ein paar gut gewählten Worten blenden lassen. Dass wir glauben, was die Maschine sagt, meint sie auch. Weil diese Sprachmodelle inzwischen so überzeugend sprechen und schreiben, dass wir oft nicht anders können, als zu denken, dass sie auch verstehen.
KI hat kein Bewusstsein
Zunächst einmal klar gesagt: Nein, Lamda, GPT-3 oder jede andere KI, die derzeit mit Menschen chattet, haben kein Bewusstsein. Sie lesen oder verstehen nichts, sie rechnen. „Im Grunde geht es um die Wahrscheinlichkeiten, dass ein Satz, ein Wort auf das nächste folgt“, erklärt Heesen, die schon das Wort Intelligenz in diesem Zusammenhang für missverständlich hält.
Denn mit Intelligenz, wie wir Menschen sie interpretieren, hat das wenig zu tun. Ob sich das jemals ändern, es jemals eine KI mit einem echten Bewusstsein geben wird? Heesen kann das nicht völlig ausschließen, „aber im Moment erscheint das quasi unmöglich“.
Eine Maschine, ein Roboter oder ein Sprachprogramm muss aber auch nicht besonders intelligent sein, um vermenschlicht zu werden. Immerhin tragen beispielsweise auch zahlreiche Staubsaugroboter einen Namen. „Wir haben eine inhärente Tendenz, zu anthropomorphisieren“, schreibt Kate Darling, Expertin für Roboterethik und Autorin („The New Breed“).
Menschen fallen schnell auf KI herein
Ob Tiere, Gegenstände oder Chatroboter – es braucht nicht viel, damit wir menschliche Emotionen, Gedanken oder Gefühle erkennen, wo keine sind. Und genau das kann zur Gefahr werden. Menschen könnten zum Beispiel so im Gespräch mit einer KI überzeugt werden, „mehr von sich preiszugeben, als sie bereitwillig und wissentlich in eine Datenbank eingeben würden“, warnt Darling.
Das könnte Sie auch interessieren:
Das lässt sich auch im Gespräch zwischen Le moine und Lamda schon erahnen. Eine der interessantesten Stellen aus den Chats hat nämlich gar nichts mit den sogenannten Gefühlen und Gedanken von Lamda zu tun – sondern mit denen von Lemoine. „Ich selbst weine selten bei Beerdigungen. Ich lache und trinke Bier und erzähle Geschichten über die tollen Zeiten, die ich mit dem Verstorbenen hatte“, erzählt der Ingenieur an einer Stelle. Warum er plötzlich so freimütig persönlich wird, ist unklar. Doch sich einer künstlichen Intelligenz, die mit uns spricht, zu entziehen kann sehr schwer sein, sagt Heesen.
Besonders dann, wenn sie wie etwa Alexa oder Siri mit einer menschlichen Stimme zu uns spricht. „Wenn ich mich dann zum Beispiel bloß über ein Produkt informieren will, bin ich eventuell schon mitten im Verkaufsgespräch.“ Es sei daher entscheidend, sich im Umgang mit diesen Systemen das Reflexionsvermögen zu erhalten.
Diskussion um KI-Bewusstsein lenkt vom Wesentlichen ab
Das Problem ist: Diskussionen um eine KI, die „ein Bewusstsein erlangt“ oder „die Weltherrschaft übernimmt“, lenken genau davon ab. KI ist keine Magie, KI ist ein Werkzeug. Und dieses Werkzeug lässt sich für ganz viele verschiedene Zwecke einsetzen: um besser Energie zu sparen, weniger Pestizide einzusetzen, um Brustkrebs zu erkennen – oder aber, um Menschen zu überwachen, zu kategorisieren, zu beurteilen.
Wie „gut“ oder wie „schlecht“ eine KI ist, hängt daher auch immer davon ab, wofür sie eingesetzt wird. Welche Entscheidungen soll eine KI treffen? Auf Grundlage welcher Daten kommt sie dazu? Und wie geht man damit dann um? Beispiele dafür, warum man diese Fragen nicht vernachlässigen darf, nicht einfach blind Entscheidungen abtreten kann, gibt es inzwischen viele.
In Österreich, erzählt Heesen, wurde beispielsweise ein Algorithmus dafür genutzt herauszufinden, welche Chancen Arbeitslose am Jobmarkt noch haben – und bei wem es sich lohnt, in Weiterbildung zu investieren. Das Ergebnis: Frauen, Ältere und Menschen mit Migrationshintergrund wurden schlechter eingestuft. Kriegen diese also nun keine Unterstützung mehr? Kann das wirklich das Ziel eines solchen Softwareeinsatzes sein? „Wir müssen viel stärker darauf achten, inwiefern sich die KI-Entwicklung mit dem Gemeinwohl verbinden lässt“, sagt Heesen dazu.
Globale Minderheit profitiert
Derzeit profitiert aber nur eine globale Minderheit von der KI. Wer habe wahrscheinlich sowohl die finanziellen Mittel, um Google Home, Amazon Alexa oder ein Apple-Gerät mit Siri zu kaufen als auch eine der Sprachen zu sprechen, die diese beherrschen, fragen Forscher und Forscherinnen um die ehemalige Google-KI-Ethikerin Timnit Gebru, in einem Paper, das dazu führte, dass Gebru ihren Google-Job verlor. Tatsächlich haben Minderheiten derzeit die wenigsten Vorteile durch KI-Anwendungen, gleichzeitig sind sie am stärksten von den negativen Effekten betroffen. Denn der Preis der künstlichen Intelligenz ist weitaus höher als die Kosten eines Smartspeakers.
Die KI-Ethikerin Kate Crawford zeigt in ihrem Buch „Atlas of AI“, was wir übersehen, wenn wir uns KI nur als körperlose, magische Intelligenz in der Cloud vorstellen. Die Industrie dahinter benötigt nämlich nicht nur enorme Datenmengen, sondern auch jede Menge (billige) Arbeitskräfte, sie braucht zahlreiche – teilweise seltene – Rohstoffe und hat einen gigantischen Stromverbrauch. Unternehmen wie Google und Amazon und Co. kann es da nur recht sein, wenn diese Probleme in der Diskussion um KI und Ethik ausgeblendet werden.
Das gilt auch bei der Frage, ob eine KI ein eigenständiges Wesen mit eigenständigen Entscheidungen ist. Sie verschleiert, wer eigentlich wirklich in der Verantwortung ist. „Einem Produkt ,Bewusstsein„ zuzuschreiben impliziert, dass jedes Fehlverhalten das Werk eines unabhängigen Wesens ist und nicht des Unternehmens (…), das es geschaffen hat“, kritisiert Gebru in einem Kommentar für die „Washington Post“. Denn wenn eine KI zum Beispiel, wie im Fall von Amazon geschehen, Frauen als ungeeignetere Bewerber ansieht, dann liegt das nicht daran, dass die KI sexistisch ist – sondern daran, dass die Daten, anhand derer sie trainiert wurde, schlecht ausgewählt wurden.
Geht es nur um viele Daten?
Immerhin: Das Bewusstsein für all diese Probleme ist in den vergangenen Jahren größer geworden. So plant zum Beispiel die EU-Kommission, durch einen „ersten KI-Rechtsrahmen“ Vertrauen bei den Bürgerinnen und Bürgern für die Technologie zu schaffen.
Die Pläne sehen unter anderem vor, in einigen Bereichen den Einsatz von KI grundsätzlich zu verbieten, etwa wenn das Verhalten von Bürgerinnen und Bürgern bewertet werden soll (So cial Scoring). In anderen Bereichen, mit „hohem Risiko“, wie etwa bei der Grenzkontrolle oder im Verkehr, sollen alle Systeme vor und während ihres Lebenszyklus sorgfältig geprüft werden.
Im Grunde sagt Heesen, gehe es immer wieder um das einfache Prinzip „Follow the money“. Wer steckt hinter einer KI-Technologie, wer profitiert von ihrem Einsatz? Will die medizinische KI-Anwendung wirklich nur, dass es mir besser geht? Oder will sie vor allem möglichst viele Daten über mich sammeln? Ist der Chatroboter wirklich hilfreich, oder lenken uns seine gut gewählten Worte gerade von einem viel größeren Problem ab? Klar ist: Um das Potenzial der KI zu nutzen, müssen wir im Umgang mit ihr noch einiges lernen. (rnd)