Die DatenfresserWas Künstliche Intelligenz dem Menschen voraus hat – und was nicht
Lesezeit 10 Minuten
Künstliche Intelligenz hat längst ihren Platz im Alltag. Obwohl Maschinen aber noch weit von echter Intelligenz entfernt sind, sind sie in einigen Bereichen dem Menschen klar überlegen – etwa im Erkennen verborgener Muster.
Weltweit versuchen Wissenschaftler, Maschinen das Lernen beizubringen – zum Beispiel am Forschungsstandort Jülich.
Wie KI in Zukunft besser das Wetter voraussehen, Gesichter erkennen und sogar ärztliche Diagnosen erstellen kann, erzählen uns ein Physiker, ein Informatiker und ein Mediziner aus Jülich.
Köln – Die Flut trifft den Ort ohne Vorwarnung. Am 29. Mai 2016 entlädt sich in kürzester Zeit eine Gewitterzelle über Braunsbach. In einer Stunde fällt so viel Regen wie sonst in Monaten. Eine gewaltige Flutwelle bahnt sich ihren Weg durch den Ort und reißt alles mit, was ihr im Wege steht: Bäume, Autos, Hauswände. Sie hinterlässt rund 50 000 Tonnen Schutt und Geröll in dem Örtchen nordöstlich von Schwäbisch Hall. Gesamtschaden: über 100 Millionen Euro.
Auch wenn die Wettervorhersage im Lauf der Jahre immer präziser geworden ist: Einzelne Orte wie Braunsbach vor Starkregen oder lokalen Gewitterzellen frühzeitig zu warnen, fällt den Meteorologen noch immer schwer. Das liegt an der relativ groben Auflösung der regionalen Wettermodelle des Deutschen Wetterdienstes (DWD). „Alles, was kleiner als drei Kilometer ist, fällt durch das Raster. Das Modell sagt dann zum Beispiel, es regnet in einem drei mal drei Kilometer großen Gebiet – auch wenn sich in der Realität in dem Gebiet blauer Himmel und Regen abwechseln.
Um Niederschläge lokal verlässlich vorherzusagen, genügt das meist nicht“, erklärt Dr. Martin Schultz. Der Physiker vom Jülich Supercomputing Centre versucht daher im Projekt DeepRain, die Vorhersagen zu verbessern, so dass den Behörden genügend Zeit bleibt, vor lokalen Gewittern und Starkregen zu warnen. Möglich machen soll das Künstliche Intelligenz (KI). Sie soll dafür in Wetterdaten nach Mustern suchen, die lokale Wetterextreme ankündigen.
KI reicht noch nicht an das menschliche Gehirn heran
KI ist ein Ansatz, intelligentes Verhalten mithilfe von Computern nachzubilden. Dafür lernen die Maschinen, ziehen Schlussfolgerungen und korrigieren sich selbst. An das menschliche Gehirn reichen sie aber noch längst nicht heran. Unser Gehirn arbeitet so energieeffizient wie keine Maschine bisher, es kann bereits aus wenigen Beispielen sinnvolle Schlüsse ziehen, ist in der Lage, flexibel zu denken, unkonventionelle Lösungen zu finden und Beziehungen zwischen völlig unterschiedlichen Sachverhalten herzustellen.
Maschinen hingegen sind im Vorteil, wenn es darum geht, sich stoisch durch Datenberge zu ackern und in einem Wust von Informationen verborgene Muster aufzuspüren oder sehr viel komplexere Muster zu erkennen, als der Mensch es kann.
Was ist was?
Algorithmus
Eine Folge von Anweisungen, um damit ein bestimmtes Problem zu lösen. Die einzelnen Befehle müssen eindeutig sein und Schritt für Schritt ausgeführt werden. Üblicherweise verlangt ein Algorithmus eine Eingabe und liefert eine Ausgabe. Beispiele für Algorithmen sind Computerprogramme und elektronische Schaltkreise, aber auch Bauanleitungen oder Kochrezepte. Bestimmte Algorithmen werden der Künstlichen Intelligenz zugerechnet.
Künstliche Intelligenz
Gemeint sind Maschinen, die auf der Basis von Algorithmen intelligentes Verhalten nachbilden. KI umfasst ein ganzes Spektrum: Computerprogramme, die Schach spielen können. Oder Chatbots, die sich mit Nutzern sozialer Netzwerke unterhalten. Bestimmte Teilbereiche der Robotik zählen ebenso zur KI wie Expertensysteme, die dabei helfen sollen, in einem begrenzten Bereich optimale Entscheidungen zu fällen. Als Schlüsseltechnologie in der KI gilt das Maschinelle Lernen.
Maschinelles Lernen
Dahinter stehen KI-Algorithmen, die aus Daten und Beispielen lernen und so Aufgaben lösen. Anhand von Beispielen oder durch eigenständige Erkennung von Mustern in Daten eignen sie sich „Wissen“ an. Damit können sie anschließend unbekannte Daten ähnlicher Art beurteilen. Die Erkennung wird umso präziser, je mehr Daten dem Algorithmus vorliegen. Erhebliche Fortschritte wurden mit Hilfe Künstlicher Neuronaler Netzwerke erzielt.
Künstliche Neuronale Netzwerke
Das sind Mathematische Modelle, die von der Arbeitsweise des Gehirns inspiriert sind. Signale werden in untereinander vernetzte Einheiten eingespeist. Diese künstlichen Nervenzellen verarbeiten die Informationen und erzeugen durch einfache mathematische Gleichungen weitere Signale, die sie an nachgeordnete „Zellen“ weitergeben. Am Ende erzeugt eine Ausgabeschicht ein Ergebnis. Zwischen der Eingabe- und Ausgabeschicht können mehrere Lagen dieser Nervenzellen liegen, die auf unterschiedliche Weise miteinander verknüpft sind. Beim Lernen werden die Verknüpfungen zwischen einzelnen Zellen gestärkt, geschwächt oder verändert. Fortschritte in der Computertechnik und die Verfügbarkeit großer Datenmengen haben das Deep Learning in solchen künstlichen Netzwerken ermöglicht.
Deep Learning
Der Begriff meint Maschinelles Lernen in neuronalen Netzen mit vielen Schichten, den „tiefen“ Netzwerken. Auch hierbei analysieren Algorithmen große Datensätze und können anschließend unbekannte Daten ähnlicher Art beurteilen. Allerdings sind die Netzwerkmodelle durch die vielen Schichten sehr viel komplexer. Dadurch hat der Algorithmus viele Freiheitsgrade sich zu vernetzen und kann so für die Lösung einer Aufgabe eigenständig lernen, optimale und möglicherweise sehr komplexe Merkmale zu extrahieren. Bei der Identifizierung von Gesichtern kann er so feinere Kriterien als Augenabstand oder Nasengröße entdecken, die hilfreich für die Erkennung sind. Programmierer helfen der Software zu „lernen“, indem sie Rückmeldung geben, ob ein Ergebnis richtig oder falsch ist. Sie korrigieren aber nicht den Weg dorthin.
Ein Beispiel sind Verfahren der Gesichtserkennung: Die KI sortiert die Fotos verschiedener Menschen etwa nach Augenabstand, Gesichtsform und Nasengröße – je nachdem, was die Programmierer vorgegeben haben. Sie legt dann für jedes Gesicht ein Muster an. Ihr Wissen setzt sie anschließend bei neuen Bildern ein: Sie vergleicht ein Bild dann mit dem bisherigen Fotobestand und schlägt vor, wer auf dem Bild zu sehen ist. Ihr wird also beigebracht, unbekannte Datensätze zu beurteilen. Dies ist eine der einfachsten Formen des maschinellen Lernens.
Mit Deep Learning besser werden
Für die Mustererkennung bei der verbesserten Wettervorhersage, die Martin Schultz anstrebt, müssen die Maschinen etwas mehr können. „Die Wetterdaten tragen komplexe zeitliche und räumliche Muster in sich. Welche davon typisch für Starkregen sind, wissen wir nicht. Wir füttern daher die Software mit möglichst vielen Daten, sie sucht selbst nach Mustern und erstellt dann Prognosen.“
Schultz setzt dabei auf eine fortgeschrittene Art des maschinellen Lernens, das Deep Learning: Auch hierbei durchsuchen KI-Systeme große Datenmengen, im Fall von DeepRain Wetterdaten aus den vergangenen Jahren – allerdings geben die Forscher nicht vor, was charakteristisch ist für Extremwetter. Stattdessen trainieren sie die Maschine darauf, das selbst herauszufinden.
„Wir wissen nicht, welche Muster sich die KI sucht. Das können Dinge sein, an die wir nicht einmal ansatzweise gedacht haben“, so Schultz. Er und seine Kollegen können aber am Ende prüfen, ob die Prognose der KI korrekt ist - es also an dem Tag heftig regnete - und das der Software zurückmelden. Durch ständiges Wiederholen „lernt“ die KI so, welche Muster am besten Starkregen vorhersagen.
Maschinen können ähnlich wie Menschen lernen
Die Funktionsweise des Deep Learning ähnelt grob den Lernprozessen unseres Gehirns. Dort sind Abermilliarden von Nervenzellen untereinander verknüpft. So leiten sie Informationen weiter und verarbeiten sie. Wenn wir lernen, aktivieren wir bestimmte Verbindungen zwischen Nervenzellen immer wieder und verändern so die Vernetzung zwischen den Zellen: Bei Kindern, die viel lesen, verstärken sich beispielsweise die Verbindungen zwischen den Bereichen im Gehirn, die für Sehen, Hören und Sprache zuständig sind. Bei professionellen Badmintonspielern verändert sich die Vernetzung der Gehirnregionen, die Sehen und Bewegung koordinieren.
Deep Learning nutzt einfache mathematische Einheiten, deren Aktivität grob der von Nervenzellen im Gehirn entspricht: Auch sie sind über Ein- und Ausgabeverbindungen miteinander verknüpft und empfangen Informationen von anderen Einheiten, die sie verarbeiten und weiterleiten. Sie funktionieren aber erheblich einfacher als die biologischen Vorbilder. Organisiert sind die mathematischen Einheiten in Schichten.
Tausende Schichten
„Tiefe Netze fürs Deep Learning besitzen mitunter Hunderte bis Tausende Schichten, in denen die Daten verarbeitet werden“, erklärt Dr. Jenia Jitsev, der sich am Jülich Supercomputing Centre mit der Architektur solcher Modelle beschäftigt. Bei der Gesichtserkennung ist es etwa so, als würde das Eingangsbild eine Vielzahl von Filtern durchlaufen, die auf immer komplexere Muster ansprechen. Die erste Schicht nimmt zum Beispiel nur Helligkeitswerte wahr. Tiefere Layer reagieren auf Kanten, Konturen und Formen – ganz tiefe Schichten schließlich Details auf individuelle Merkmale von menschlichen Gesichtern.
Das Netzwerk lernt, ein Gesicht zu identifizieren, indem es sich merkt, welche Kombination aus Helligkeitswerten, Kanten, Formen und Details dieses Gesicht charakterisieren: Wie bei den Nervenzellen im Gehirn verstärken sich bestimmte Verbindungen zwischen den Netzwerkeinheiten. Durch den Lernprozess werden Verbindungsmuster geschaffen, die zum korrekten Ergebnis führen. „Tiefe neuronale Netzwerke benötigen möglichst viele verschiedene Beispiele fürs Training: je mehr, desto erfolgreicher das Lernen“, sagt Jitsev.
Genau hier liegt ein Problem, das Schultz im DeepRain-Projekt noch lösen muss: Das Trainingsmaterial fehlt. „Wir transferieren vom Deutschen Wetterdienst für unsere Berechnungen insgesamt 600 Terabyte an Daten. Das klingt erst einmal nicht nach einem Mangel.“ Allerdings: Starkregen ist selten. „Laut einer Statistik des Deutschen Wetterdienstes gab es zwischen 1996 und 2005 an keiner Station mehr als acht solche Ereignisse“, so Schultz. Entsprechend rar sind Datensätze, aus denen sich ein Muster für die KI herauskristallisieren könnte.
Hinzu kommt: Die Daten werden nicht nur zum Trainieren benötigt, sondern auch für die abschließende Qualitätsprüfung. Deep-Learning-Experte Jitsev: „Für die Trainingsphase werden typischerweise nur 80 Prozent der Daten genutzt. Die restlichen 20 Prozent fassen wir zunächst einmal gar nicht an. Dieser Testdatensatz wird erst nach dem Training herausgeholt, um daran die Ergebnisse des neuronalen Netzwerkes zu überprüfen.“
Besonders wichtig ist diese Testphase, wenn es um sensible Daten geht – Daten, die über das Schicksal von Menschen entscheiden: etwa Auswahlverfahren bei Bewerbungen, die Einschätzung der Kreditwürdigkeit oder ärztliche Diagnosen. Mit Letzteren beschäftigt sich der Mediziner Prof. Simon Eickhoff vom Institut für Neurowissenschaften und Medizin am Forschungszentrum Jülich. Er hofft, irgendwann mithilfe von KI Muster im Gehirn von Menschen mit psychologischen und neurologischen Erkrankungen zu finden, um sie gezielt behandeln zu können.
Computerprogramme sollen in Hirnscans zum Beispiel nach Mustern fahnden, die Aufschluss darüber geben, wie wahrscheinlich ein Rückfall bei einem Patienten mit Depressionen ist. KI könnte prognostizieren, wie schnell die Beeinträchtigungen einer Person mit Morbus Parkinson voranschreitet oder ob ein Patient besser mit Medikament A oder Medikament B behandelt werden sollte.
KI kann Persönlichkeiten einschätzen
Bis dahin ist der Weg aber noch weiter. Eickhoff und sein Team sind aber schon dabei, KI mithilfe der Mustererkennung bestimmte Informationen aus Hirnscans gewinnen zu lassen: Im Augenblick stehen kognitive Leistungen und Persönlichkeitseigenschaften wie Offenheit, Geselligkeit und emotionale Stabilität im Mittelpunkt. Dazu haben Eickhoff und sein Team Maschinenlern-Programme mit den Gehirnscans von hunderten Personen trainiert. Von diesen Probanden werden bestimmte psychologische Kenngrößen mit eingegeben, etwa die Reaktionszeit in einem standardisierten Test. Hat das Modell genug Daten gesehen, kann es allein anhand der Gehirnbilder auf die Reaktionszeit eines neuen Individuums schließen. „Unsere Algorithmen suchen allerdings nicht nach Einzelaspekten in den Bilddaten. Wir können nicht sagen: Bei Menschen mit einem guten Arbeitsgedächtnis sind bestimmte Areale im Gehirn überdurchschnittlich groß. Vielmehr ist das Gesamtmuster ausschlaggebend“, sagt Eickhoff.
Komplexere kognitive Fähigkeiten, wie etwa Reaktionszeiten oder die Kapazität des Arbeitsgedächtnisses, lassen sich relativ verlässlich mit KI aus den Gehirnscans ableiten, so der Hirnforscher. Bei Persönlichkeitseigenschaften stimme die Vorhersage zwar auch tendenziell, aber die Genauigkeit sei hier noch nicht so gut. Das zeigt die Qualitätssicherung mit Daten, die die KI noch nicht kennt: Sie trainiert nämlich immer nur mit einem Teil eines Datensatzes, den Rest nutzen die Forscher, um zu prüfen, wie gut die KI nach einer Lernphase die Persönlichkeitsmerkmale vorhersagt. Bereits sehr gute Ergebnisse liefert die KI bei der Vorhersage von Alter und Geschlecht: „Hier kann unser Programm mit 90-prozentiger Sicherheit angeben, ob das Gehirn einer Frau oder einem Mann gehört. Beim Alter liegen wir in einem Bereich von plus/minus vier Jahren“, berichtet Eickhoff.
Licht ins Dunkel bringen
Die Überprüfbarkeit von Daten wie Alter oder Geschlecht ist vergleichsweise einfach. Schwieriger wird es bei Diagnosen und Prognosen. „Die Akzeptanz der Künstlichen Intelligenz im Gesundheitswesen steht und fällt mit dem Vertrauen, das ihr entgegengebracht wird – sowohl von den Patienten als auch von den Ärzten“, glaubt der Jülicher Experte. Vertrauen basiert zum Teil darauf, dass nachvollziehbar ist, wie eine Diagnose oder ein Ergebnis zustande kommt. KI-Experten vergleichen jedoch ein neuronales Netzwerk beim Deep Learning gerne mit einer Black Box: Man kennt die Eingabedaten und erhält eine Ausgabe.
Doch die Vorgänge in den informationsverarbeitenden Schichten dazwischen sind so komplex, dass sich meist nicht nachvollziehen lasse, wie das Netzwerk zu seinen Ergebnissen gelangt. Eine wichtige Aufgabe für die KI-Fachleute sei es daher, in den kommenden Jahren Licht in dieses Dunkel zu bringen. Hoffnung setzen Fachleute auf „Explainable AI“, also die erklärbare Künstliche Intelligenz. Solch eine KI liefert eben auch die Kriterien mit, wie sie zu ihrem Schluss gelangt ist. Nicht nur Medizin und Neurowissenschaften würden von solchen Algorithmen profitieren, auch Wettervorhersage, Spracherkennung oder die Steuerung autonomer Autos. „Erst wenn wir erklären können, warum ein Algorithmus diese Entscheidung trifft, werden wir von Maschinen vorgeschlagene Lösungen akzeptieren, die unser Gehirn nicht findet“, so Eickhoff.