AboAbonnieren

Interview„In ihren Folgen wird die KI völlig überschätzt“

Lesezeit 7 Minuten
Jobst Landgrebe in der Redaktion des „Kölner Stadt-Anzeiger“

Jobst Landgrebe in der Redaktion des „Kölner Stadt-Anzeiger“

Verglichen mit der Dampfmaschine sei die Innovationskraft der KI begrenzt, sagt der Mathematiker Jobst Landgrebe im Gespräch mit dem „Kölner Stadt-Anzeiger“.

Herr Landgrebe, viele warnen vor den Gefahren der „Künstlichen Intelligenz“. Sie auch?

Schon der Name „Künstliche Intelligenz“ führt in die Irre. Das ist ein Marketing-Begriff, der cool klingt, mehr aber auch nicht. Die sogenannte Künstliche Intelligenz hat mit Intelligenz, wie wir sie verstehen, nichts zu tun.

Welche Definition von Intelligenz legen Sie zugrunde?

Intelligentes Verhalten bedeutet nach Max Scheler, in einer völlig neuen, so noch nicht dagewesenen Situation spontan und ohne Übung Lösungen zu finden, die den eigenen Zielen zweckdienlich sind. Das können nur lebendige Wesen. Künstliche Intelligenz dagegen ist angewandte Mathematik, nicht mehr und nicht weniger. Sehr allgemein gesagt, geht es darum, in großen Datenmengen bestimmte Regelmäßigkeiten oder Muster zu identifizieren und zu nutzen. In ihren Folgen wird die KI völlig überschätzt. Sie hat als Innovationstreiber längst nicht die Bedeutung der Dampfmaschine, des Verbrennungsmotors, der Elektrifizierung oder auch des Internets.

Interview mit Dr. Jobst Landgrebe in der Redaktion des „Kölner Stadt-Anzeiger“.

Interview mit Jobst Landgrebe zum Thema Künstliche Inteligenz: „Medizinische Assistenzsysteme kann man trainieren“.

Vielleicht sagen Sie das nur, weil wir erst an den Anfängen einer Entwicklung stehen. Noch spöttelt man über die Fehler, die zum Beispiel ChatGPT macht.

Das wird aber nicht wirklich besser werden. Die Fehler kommen nämlich aus der Art, wie das Rechenmodell von ChatGPT trainiert worden ist. Die Entwickler haben der Antwort „Ich weiß es nicht“ eine negative Bewertung zugeordnet, weil sie nicht zur Story von der Wundermaschine passt und unattraktiv für Marketing- und Werbezwecke ist. Stattdessen „belohnt“ die Art des Trainings konkrete Antworten auch dann, wenn sie „erfunden“ sind. Den Anteil solcher Fehler könnte man reduzieren, in dem man künftig viel öfter die Auskunft „Ich weiß es nicht“ zuließe. Aber das heißt nicht, dass die Maschine tatsächlich etwas „weiß“. In Wirklichkeit versteht sie gar nichts.

Nein?

Anhand von Bildern lässt sich das noch besser zeigen als bei Texten. Wenn Sie einem Bot eine verfremdete Ansicht des Doms zeigen, versagt er total. Weil er nicht so zu abstrahieren versteht wie das menschliche Gehirn.

Was ist mit Assistenz-Systemen etwa in der Medizin oder in der Justiz.

Die kann man mit hoch raffiniert ausgearbeiteten Frage-und-Antwort-Tools tatsächlich sehr weitgehend trainieren. Bei medizinischen Routinefällen oder juristischen Standardverfahren wie Ladendiebstahl – natürlich können sich Ärzte und Richter da von der KI in der Diagnostik oder bei der Formulierung eines Urteils unterstützen lassen. Warum denn nicht? Aber spannend sind doch die seltenen Krankheiten, die Präzedenzfälle, für die es keine Standardlösungen gibt. Wo Mediziner oder Juristen wirklich ihre Kernleistung erbringen müssen, können sie das, was die KI liefern würde, komplett in die Tonne treten.

Als Journalisten beschäftigt uns natürlich die Frage, ob die KI unsere Arbeit ersetzen wird.

Bleiben Sie locker! Durch KI entsteht nichts wirklich Neues – auch kein neuer Text. Deswegen wehre ich mich gegen den Begriff „generative KI“. Sie wird auch Ihnen manche Arbeit erleichtern, aber Sie nicht ersetzen. Meine Prognose: fünf bis zehn Prozent Arbeitsersparnis. Mehr nicht.

Aber warum? Die Lernkurve von ChatGPT zeigt doch schon jetzt von Version zu Version deutlich nach oben.

Die Technik hat aber eine natürliche Grenze: Belebte Systeme lassen sich mathematisch nur sehr schlecht modellieren. Das wusste schon Immanuel Kant, der 1790 sagte, das Wachstum eines Grashalms nach den Gesetzen von Isaac Newton begreifen zu wollen, sei eine unsinnige Vorstellung.

Texte sind doch gar keine belebten Systeme.

Aber sie werden von belebten Systemen erzeugt. Ich räume ein, es wird sehr bald Programme geben, die Textvorlagen in hoher Qualität liefern. Die Maschine braucht dazu aber immer Beispieltexte aus demselben Kontext. ChatGPT funktioniert nur gut bei häufig vorkommenden Textsequenzen. Da findet das Training statt. Das Problem ist: Die so entstehenden Texte werden immer stereotyp klingen. Sie werden also immer noch das Menschliche hinzugeben müssen. So etwas wie individuellen Stil kann das Programm nur erzeugen, wenn es aus einer entsprechenden Menge von Vergleichsdaten schöpft. Ein Student an der Uni mit seiner Hausarbeit kommt nicht einmal annähernd in die Sphäre. Deswegen werden Sie auch in Zukunft KI-erzeugte Hausarbeiten am Stil erkennen können.

Jobst Landgrebe in der Redaktion des „Kölner Stadt-Anzeiger.“

Interview mit Jobst Landgrebe zum Thema Künstliche Inteligenz: „Textvorlagen, Textbausteine oder Templates sind doch ein alter Hut“.

Na ja, mit etwas Geschick könnte man die hölzernen Stellen doch dann von Hand überarbeiten und hätte immer noch eine gewaltige Ersparnis an Ressourcen.

Aber Textvorlagen, Textbausteine oder Templates sind doch ein alter Hut. Viel mehr macht aber auch ChatGPT nicht. Selbst in zehn, 20 Jahren wird ChatGPT nicht alle Kriterien erfüllen, die Sie als Journalisten an einen guten Text herantragen. Sie werden immer draufgucken müssen. Wenn Sie’s nicht tun, dann ist das eben schlechter Journalismus.

Die warnenden Stimmen sagen, die KI könnte außer Kontrolle geraten, weil man nicht weiß, wie sie zu ihren Ergebnissen kommt.

Ich habe keine solchen Frankenstein-Alpträume. Noch einmal: Sie können ChatGPT mit Abermilliarden alten Lösungen trainieren. Es wird daraus nie etwas wirklich Neues machen. Das können nur lebendige Wesen. Bis heute wissen wir nicht, wie menschliches – oder auch tierisches – Bewusstsein oder der Wille entstehen. Es gibt natürlich sehr viel neurowissenschaftliche Literatur dazu. Aber in Wahrheit verstehen wir nichts. Wir drücken es nur sehr elegant aus. Was wir aber nicht wissen und verstehen, das können wir es auch nicht für eine Maschine modellieren. Je besser sich jemand mit der KI auskennt, desto mehr wird er dieser These zustimmen. Das gilt speziell für Mathematiker. Die Angst- und Abwehrdebatten dagegen werden meistens von Philosophen geführt.

Es gibt also nicht das Risiko eines Kontrollverlusts?

Doch. Tschernobyl war auch Technik außer Kontrolle. Aber nicht aus eigenem Willen.

Wie kommt es dann, dass ein Hitech-Gigant wie Elon Musk fordert, die KI ethisch-moralisch einzuhegen?

Elon Musk weiß einerseits ganz genau, dass die Gefahr, die er beschwört, gar nicht existiert. Andererseits lautet sein Credo: „Competition is for losers.“ – Wettbewerb ist was für Verlierer. Seit er unternehmerisch unterwegs ist, hat Musk es immer auf Oligopole abgesehen. Er ist ein genialer Oligopolist, der alles will, nur keinen Wettbewerb. Das gilt auch für das Geschäft mit der Künstlichen Intelligenz, mit dem in Zukunft unglaublich viel Geld gemacht werden wird. Um sich auf diesem Sektor früh eine Vormachtstellung zu sichern, verbreitet Musk die Angst davor. Er will, dass der Staat regulierend eingreift und damit Wettbewerber aus dem Markt drängt oder gar nicht erst auf den Markt lässt.

Klingt ein bisschen nach Verschwörung.

Gar nicht. Es beschreibt nur, wie man’s anstellen muss. Wenn ich könnte, würde ich es genauso machen.

Sehen Sie denn Bereiche, in denen eine staatliche Regulierung der KI begründet ist?

Natürlich. Der Datenschutz ist ein riesiges Problem. Auch der militärische Einsatz von KI bedarf dringend eines Eingreifens – wie alles, womit Menschen gezielt geschädigt werden können.

An welche Art von KI-Waffen denken Sie?

Programmierte Sprengstoffdrohnen zum Beispiel, die in riesiger Zahl irgendwo versteckt sind, sich bei Annäherung des Gegners aktivieren lassen und dann eine unglaubliche Vernichtungswirkung entfalten. Zu allem Überfluss sind die auch noch spottbillig. Da kostet der Sprengstoff fast mehr als der Chip. Die Ächtung hoch gefährlicher KI-Waffen wird ein ähnliches Thema werden wie die Ächtung von ABC-Waffen. Aber auch hier: nicht weil KI-Waffen einen „eigenen Willen“ hätten, sondern weil sie enormen Schaden anrichten können. Es sind immer Menschen, die diese Technik steuern. Die Ethik der KI ist die Ethik ihres Einsatzes durch Menschen.

Wir sind hier im Rheinland. Welche spannenden KI-Entwicklungen gibt es in der Region?

DeepL in Köln mit seiner Sprachübersetzung ist heute einer der führenden KI-Anbieter weltweit. Großartig, was die aufgebaut haben.

Aber vom „deutschen Silicon Valley“ sind wir noch ein Stück entfernt?

Das ist überhaupt nicht vergleichbar. Die Großen im Silicon Valley sind mit ganz anderen Investitionssummen unterwegs. „Open AI“ hat für die Entwicklung von ChatGPT mal eben sechs bis acht Milliarden Dollar locker gemacht. Womit wir gut mithalten können, ist das geistige Potenzial. Die Absolventen in Mathematik und Physik an deutschen Universitäten sind Weltklasse. Top ausgebildet, zuverlässig, leistungsbereit. Das ist jedenfalls meine Erfahrung. Das spricht sehr für den viel geschmähten „Standort Deutschland“.

Zur Person

Jobst Landgrebe, geb. 1970, ist Gründungsgeschäftsführer der Kölner Firma „Cognotekt“ für datengetriebene Beratung im Gesundheitssektor. Der in Biochemie promovierte Mediziner hat auch Philosophie und Mathematik studiert. Er hat eine Gastprofessur für Wissenschaftstheorie in Lugano.