-
Titelthema
Lernende Maschinen
Sie macht das Licht aus, übersetzt Texte und schlägt Schnäppchen beim Online-Einkauf vor: Künstliche Intelligenz hat längst ihren Platz im Alltag. Auch in der Wissenschaft entwickelt sie sich zu einer wichtigen Basis. Denn obwohl Maschinen noch weit von echter Intelligenz entfernt sind, sind sie in einigen Bereichen dem Menschen klar überlegen – etwa im Erkennen verborgener Muster.
Die Flut trifft den Ort ohne Vorwarnung. Am 29. Mai 2016 entlädt sich innerhalb kürzester Zeit eine Gewitterzelle über Braunsbach. In einer Stunde fällt so viel Regen wie sonst in Monaten. Eine gewaltige Flutwelle bahnt sich ihren Weg durch den Ort und reißt alles mit, was ihr im Wege steht: Bäume, Autos, Hauswände. Sie hinterlässt rund 50.000 Tonnen Schutt und Geröll in dem Örtchen nordöstlich von Schwäbisch Hall. Gesamtschaden: über 100 Millionen Euro.
Auch wenn die Wettervorhersage im Lauf der Jahre immer präziser geworden ist: Einzelne Orte wie Braunsbach frühzeitig vor Starkregen oder lokalen Gewitterzellen zu warnen, fällt den Meteorologen noch immer schwer. Das liegt unter anderem an der relativ groben Auflösung der regionalen Wettermodelle des Deutschen Wetterdienstes (DWD). „Alles, was kleiner als zwei Kilometer ist, fällt durch das Raster. Das Modell sagt dann zum Beispiel, es regnet in einem zwei mal zwei Kilometer großen Gebiet – auch wenn sich in der Realität in dem Gebiet blauer Himmel und Regen abwechseln. Um Niederschläge lokal verlässlich vorherzusagen, genügt das meist nicht“, erklärt Dr. Martin Schultz.
Der Physiker vom Jülich Supercomputing Centre versucht daher im Projekt DeepRain, die Vorhersagen zu verbessern, so dass den Behörden genügend Zeit bleibt, vor lokalen Gewittern und Starkregen zu warnen. Möglich machen soll das Künstliche Intelligenz (KI). Sie soll dafür in Wetterdaten nach Mustern suchen, die lokale Wetterextreme ankündigen.
Rechnen nach Vorschrift
KI ist ein Ansatz, intelligentes Verhalten mithilfe von Computern nachzubilden. Dafür lernen die Maschinen, ziehen Schlussfolgerungen und korrigieren sich selbst. An das menschliche Gehirn reichen sie aber noch längst nicht heran. Unser Gehirn arbeitet so energieeffizient wie keine Maschine bisher, es kann bereits aus wenigen Beispielen sinnvolle Schlüsse ziehen, ist besonders gut in der Lage, flexibel zu denken, unkonventionelle Lösungen zu finden und Beziehungen zwischen völlig unterschiedlichen Sachverhalten herzustellen.
Maschinen hingegen sind im Vorteil, wenn es darum geht, sich stoisch durch Datenberge zu ackern und in einem Wust von Informationen verborgene Muster aufzuspüren oder sehr viel komplexere Muster zu erkennen, als der Mensch es kann.
Ein simples Beispiel sind klassische Verfahren der Gesichtserkennung: Die KI sortiert die Fotos verschiedener Menschen beispielsweise nach Augenabstand, Gesichtsform und Nasengröße – je nachdem, was die Programmierer vorgegeben haben. Sie legt dann für jedes Gesicht ein Muster an. Ihr Wissen setzt sie anschließend bei neuen Bildern ein: Sie vergleicht ein Bild dann mit dem bisherigen Fotobestand und schlägt vor, wer auf dem Bild zu sehen ist. Ihr wird also beigebracht, unbekannte Datensätze zu beurteilen. Dies ist eine der einfachsten Formen des maschinellen Lernens.
Das Muster des Regens
Für die Mustererkennung bei der verbesserten Wettervorhersage, die Martin Schultz anstrebt, müssen die Maschinen etwas mehr können. „Die Wetterdaten tragen komplexe zeitliche und räumliche Muster in sich. Welche davon typisch für Starkregen sind, wissen wir nicht. Wir füttern daher die Software mit möglichst vielen Daten, sie sucht selbst nach Mustern und erstellt dann Prognosen.“
Martin Schultz setzt dabei auf eine fortgeschrittene Art des maschinellen Lernens, das Deep Learning: Auch hierbei durchsuchen KI-Systeme große Datenmengen, im Fall von DeepRain Wetterdaten aus den vergangenen Jahren – allerdings geben die Forscher nicht vor, was charakteristisch ist für Extremwetter. Stattdessen trainieren sie die Maschine darauf, das selbst herauszufinden.
„Wir wissen nicht, welche Muster sich die KI sucht. Das können Dinge sein, an die wir nicht einmal ansatzweise gedacht haben oder die wir vielleicht auch nie erkannt hätten“, so Schultz. Er und seine Kollegen können aber am Ende prüfen, ob die Prognose der KI korrekt ist, es also an dem Tag heftig regnete, und das der Software zurückmelden. Durch ständiges Wiederholen „lernt“ die KI so, welche Muster Starkregen am besten vorhersagen.
Die Funktionsweise des Deep Learning ähnelt grob den Lernprozessen unseres Gehirns. Dort sind Abermilliarden von Nervenzellen untereinander verknüpft. So leiten sie Informationen weiter und verarbeiten sie. Wenn wir lernen, nutzen wir bestimmte Verbindungen zwischen Nervenzellen immer wieder und verändern so die Vernetzung zwischen den Zellen: Bei Kindern, die viel lesen, verstärken sich beispielsweise die Verbindungen zwischen den Bereichen im Gehirn, die für Sehen, Hören und Sprache zuständig sind. Bei professionellen Badmintonspielern verändert sich die Vernetzung der Gehirnregionen, die Sehen und Bewegung koordinieren.
Deep Learning nutzt einfache mathematische Einheiten, deren Aktivität grob der von Nervenzellen im Gehirn entspricht: Sie sind ebenfalls über Ein- und Ausgabeverbindungen miteinander verknüpft und empfangen Informationen von anderen Einheiten, die sie verarbeiten und weiterleiten. Sie funktionieren aber erheblich einfacher als die biologischen Vorbilder. Organisiert sind die mathematischen Einheiten in Schichten.
Martin Schultz möchte mithilfe von KI lokale Wetterprognosen verbessern.
Tausende Schichten
„Tiefe Netze fürs Deep Learning besitzen mitunter Hunderte bis Tausende Schichten, in denen die Daten verarbeitet werden“, erklärt Dr. Jenia Jitsev, der sich am Jülich Supercomputing Centre mit der Architektur solcher Modelle beschäftigt. Bei der Gesichtserkennung ist es beispielsweise so, als würde das Eingangsbild eine Vielzahl von Filtern durchlaufen, die auf immer komplexere Muster ansprechen. Die erste Schicht nimmt zum Beispiel nur Helligkeitswerte wahr. Tiefere Layer reagieren auf Kanten, Konturen und Formen – ganz tiefe Schichten schließlich auf individuelle Merkmale von menschlichen Gesichtern.
Das Netzwerk lernt, ein Gesicht zu identifizieren, indem es sich merkt, welche Kombination aus Helligkeitswerten, Kanten, Formen und Details dieses Gesicht charakterisieren: Wie bei den Nervenzellen im Gehirn verstärken und schwächen sich bestimmte Verbindungen zwischen den Netzwerkeinheiten. Durch den Lernprozess werden Verbindungsmuster geschaffen, die zum korrekten Ergebnis führen. „Tiefe neuronale Netzwerke benötigen möglichst viele verschiedene Beispiele fürs Training: je mehr unterschiedliche Beispiele, desto erfolgreicher das Lernen“, sagt Jitsev.
Genau hier liegt ein Problem, das Schultz im DeepRain-Projekt noch lösen muss: Das Trainingsmaterial fehlt. „Wir transferieren vom Deutschen Wetterdienst für unsere Berechnungen insgesamt 600 Terabyte an Daten. Das klingt erst einmal nicht nach einem Mangel.“ Allerdings: Starkregen ist selten. „Laut einer Statistik des Deutschen Wetterdienstes gab es zwischen 1996 und 2005 an keiner Station mehr als acht solcher Ereignisse“, sagt Schultz. Entsprechend rar sind Datensätze, aus denen sich ein Muster für die KI herauskristallisieren könnte.
Hinzu kommt: Die Daten werden nicht nur zum Trainieren benötigt, sondern auch für die abschließende Qualitätsprüfung. Deep-Learning-Experte Jenia Jitsev: „Für die Trainingsphase werden typischerweise nur 80 Prozent der Daten genutzt. Die restlichen 20 Prozent fassen wir zunächst einmal gar nicht an. Dieser Testdatensatz wird erst nach dem Training herausgeholt, um daran die Fähigkeiten des neuronalen Netzwerkes zu überprüfen.
Hofft, mithilfe von KI Muster im Gehirn von Menschen mit psychologischen und neurologischen Erkrankungen zu finden: Simon Eickhoff.
Jenia Jitsev beschäftigt sich mit der Architektur von tiefen neuronalen Netzwerken für Deep Learning.
Individuelle Prognosen
Besonders wichtig ist diese Testphase, wenn es um sensible Daten geht – Daten, die über das Schicksal von Menschen entscheiden: etwa Auswahlverfahren bei Bewerbungen, die Einschätzung der Kreditwürdigkeit oder ärztliche Diagnosen. Mit Letzteren beschäftigt sich der Mediziner Prof. Simon Eickhoff vom Institut für Neurowissenschaften und Medizin (INM-7). Er hofft, irgendwann mithilfe von KI Muster im Gehirn von Menschen mit psychologischen und neurologischen Erkrankungen zu finden, um sie gezielt und individuell behandeln zu können. Computerprogramme sollen in Hirnscans zum Beispiel nach Mustern fahnden, die Aufschluss darüber geben, wie wahrscheinlich ein Rückfall bei einem Patienten mit Depressionen ist. KI könnte prognostizieren, wie schnell die Beeinträchtigungen einer Person mit Morbus Parkinson voranschreitet oder ob ein Patient besser mit Medikament A oder Medikament B behandelt werden sollte.
das Gesamtmuster zählt
Bis dahin ist der Weg aber noch weit. Eickhoff und sein Team sind schon dabei, KI mithilfe der Mustererkennung bestimmte Informationen aus Hirnscans gewinnen zu lassen: Im Augenblick stehen kognitive Leistungen und Persönlichkeitseigenschaften wie Offenheit, Geselligkeit und emotionale Stabilität im Mittelpunkt. Dazu haben Eickhoff und sein Team Maschinenlern-Programme mit den Gehirnscans von Hunderten Personen trainiert. Von diesen Probanden werden bestimmte psychologische Kenngrößen mit eingegeben, etwa die Reaktionszeit in einem standardisierten Test. Hat das Modell genügend Daten gesehen, kann es allein anhand der Gehirnbilder auf die Reaktionszeit eines neuen Individuums schließen. „Unsere Algorithmen suchen allerdings nicht nach Einzelaspekten in den Bilddaten. Wir können nicht sagen: Bei Menschen mit einem guten Arbeitsgedächtnis sind bestimmte Areale im Gehirn überdurchschnittlich groß. Vielmehr ist das Gesamtmuster ausschlaggebend“, sagt Eickhoff.
„Tiefe neuronale Netzwerke benötigen möglichst viele verschiedene Beispiele fürs Training: je mehr Beispiele, desto erfolgreicher das Lernen.“
Jenia Jitsev
Komplexere kognitive Fähigkeiten, wie etwa Reaktionszeiten oder die Kapazität des Arbeitsgedächtnisses, lassen sich relativ verlässlich mit KI aus den Gehirnscans ableiten, so der Hirnforscher. Bei Persönlichkeitseigenschaften stimme die Vorhersage zwar auch tendenziell, aber die Genauigkeit sei hier noch nicht so gut. Das zeigt die Qualitätssicherung mit Daten, die die KI noch nicht kennt: Sie trainiert nämlich immer nur mit einem Teil eines Datensatzes, den Rest nutzen die Forscher, um zu prüfen, wie gut die KI nach einer Lernphase die Persönlichkeitsmerkmale vorhersagt.
Bereits sehr gute Ergebnisse liefert die KI bei der Vorhersage von Alter und Geschlecht: „Hier kann unser Programm mit neunzigprozentiger Sicherheit angeben, ob das Gehirn einer Frau oder einem Mann gehört. Beim Alter liegen wir in einem Bereich von plus/minus vier Jahren“, berichtet Eickhoff.
Licht ins dunkel bringen
Die Überprüfbarkeit von Daten wie Alter oder Geschlecht ist vergleichsweise einfach. Schwieriger wird es bei Diagnosen und Prognosen. „Die Akzeptanz der Künstlichen Intelligenz im Gesundheitswesen steht und fällt mit dem Vertrauen, das ihr entgegengebracht wird – sowohl von den Patienten als auch von den Ärzten“, glaubt der Jülicher Experte. Vertrauen basiert zum Teil darauf, dass nachvollziehbar ist, wie eine Diagnose oder ein Ergebnis zustande kommt. KI-Experten vergleichen jedoch ein neuronales Netzwerk beim Deep Learning gerne mit einer Black Box: Man kennt die Eingabedaten und erhält eine Ausgabe. Doch die Vorgänge in den informationsverarbeitenden Schichten dazwischen sind so komplex, dass sich meist nicht nachvollziehen lässt, wie das Netzwerk zu seinen Ergebnissen gelangt. Eine wichtige Aufgabe für die KI-Fachleute sei es daher, in den kommenden Jahren ein wenig Licht in dieses Dunkel zu bringen und die komplexen Muster für uns sichtbar zu machen, die den Ergebnissen der KI zugrunde liegen, sagt Simon Eickhoff. Hoffnung setzen viele Fachleute in dieser Hinsicht auf „Explainable AI“, also die erklärbare Künstliche Intelligenz. Solch eine KI liefert neben dem eigentlichen Ergebnis auch die Kriterien mit, wie sie zu ihrem Schluss gelangt ist. Nicht nur Medizin und Neurowissenschaften würden von solchen Algorithmen profitieren, auch Wettervorhersage, Spracherkennung oder die Steuerung autonomer Autos. „Erst wenn wir erklären können, warum ein Algorithmus seine Entscheidung getroffen hat, werden wir von Maschinen vorgeschlagene Lösungen akzeptieren, die unser Gehirn nicht findet“, so Eickhoff.
Arndt Reuning
KI auf dem Vormarsch
Der Begriff der Künstlichen Intelligenz wurde bereits im Jahr 1956 auf einem mehrwöchigen Workshop am Dartmouth College in New Hampshire geprägt. Erste Konzepte zu künstlichen neuronalen Netzwerken existierten zu dieser Zeit bereits. In den 1970er Jahren setzte dann allerdings der lange „KI-Winter“ ein: Die Forschung stagnierte, da es sowohl an Rechenleistung als auch an ausreichenden Trainingsdaten mangelte. Ungefähr zur Jahrtausendwende begann dann die Renaissance des maschinellen Lernens.
„Erst Big Data und die Fortschritte bei lernenden Algorithmen haben die gegenwärtigen Fortschritte der künstlichen neuronalen Netzwerke möglich gemacht“, sagt der Deep-Learning-Experte Dr. Jenia Jitsev vom Jülich Supercomputing Centre. Denn je mehr Daten, desto mehr Beispiele, mit denen ein künstliches neuronales Netzwerk trainiert werden kann. Und je intensiver das Training, desto besser kann ein Netzwerk neue Beispiele korrekt einordnen, die es zuvor noch nie gesehen hat. Solche selbstlernenden KI-Algorithmen sind allerdings sehr rechenintensiv. „Hier profitieren wir von der gestiegenen Leistungsfähigkeit und der gewachsenen Speicherkapazität moderner Hochleistungscomputer, die speziell für den Umgang mit solchen Algorithmen und riesigen Datenmengen entwickelt wurden.“ In solchen Hochleistungscomputern stecken neben herkömmlichen Prozessoren (CPUs) viele Grafikprozessoren (GPUs). GPUs haben zwar langsamere Rechenkerne als CPUs, aber dennoch einen entscheidenden Vorteil: Sie verfügen anders als CPUs über Tausende von Rechenkernen, die einfache Rechenoperationen parallel mit großer Effizienz durchführen können. Ideal für die Arbeitsweise der neuronalen Netzwerke und des Deep Learnings: bei diesen müssen während des Trainings eine Vielzahl solcher Operationen immer wieder durchgeführt werden.
Zu den immer leistungsfähigeren Rechnern kommt hochwertige Software: „Mittlerweile stehen viele unterschiedliche Open-Source-Werkzeuge zur Verfügung.“ Die drei Voraussetzungen Big Data, leistungsfähige Hardware und passende Software haben die KI nun endgültig aus ihrem langen Winterschlaf erwachen lassen.
© 2022 Forschungszentrum Jülich