Nichts Passendes dabei? Stellen Sie ein, welche Inhalte Sie auf aleri.de sehen möchten:
Im Jahr 1964 erblickte eine Software das Licht der Welt, das nach dem Blumenmädchen aus George Bernhard Shaws Pygmalion benannt war. ELIZA war ein Programm, das mit Menschen in ihrer Sprache kommunizierte und so den Anschein künstlicher Intelligenz erweckte. Von diesem ersten, noch bescheidenen Anfang bis zu den Chat-Bots von heute hat das Feld der Künstlichen Intelligenz eine rasante Entwicklung genommen. Wir werfen einen Blick auf die entscheidenden Faktoren.
ELIZA war einfach gestrickt: Das Programm nahm getippte Aussagen entgegen und prüfte sie auf Grundlage eines Wörterbuches. Entdeckte es etwas Bekanntes, produzierte es Fragen auf Basis der gefundenen Begriffe. Und diese ganz im Stil einer klientenzentrierten Psychotherapie, deren Gesprächsziel es ist, durch offene Fragestellung die Befragten selbst zum Erkennen des Problems zu führen.
Die Wirkung auf die ersten User und Userinnen war frappierend. Für sie schien das Programm tatsächlich zuzuhören und auf geschilderte Probleme einzugehen. Manche bezweifelten, dass überhaupt eine Software für diese Form der Gesprächsführung verantwortlich sein könne, andere hielten das, was sie lasen, tatsächlich für einen Ausdruck von maschineller Intelligenz. Exakt das also, was Alan Turing schon 1950 als Definition für Künstliche Intelligenz postuliert hatte: Die Menschen waren nicht mehr in der Lage, mit Sicherheit zu entscheiden, ob ein Mensch oder eine Maschine die Fragen produzierte. ELIZA war das erste Programm, das wenigstens bei einigen seiner Nutzer und Nutzerinnen den Turing-Test bestand.
Zwei Jahre nach ELIZA entstand eine der bis heute wohl bekanntesten Visionen wie künstliche oder auch maschinelle Intelligenz in der Zukunft aussehen könnte: HAL 9000 aus Stanley Kubricks „2001 – Odyssee im Weltraum“. HAL unterscheidet sich in vielen zentralen Eigenschaften von dem, was wir mehr als 50 Jahre später als AI kennen.
Aktuell real existierende AI-Systeme könnten davon kaum weiter entfernt sein. Statt der Universalität der Kubrick-Vision sind sie tatsächlich hochspezialisiert. Entweder Sprach- und Worterkennung ODER Fahrzeugsteuerung ODER Analyse und Auswertung medizinischer Bildgebung. Der Grund dafür ist praktischer Natur: zu unübersichtlich, heterogen und groß wäre – wenigstens vorerst und noch auf absehbare Zeit – die notwendige Menge des Wissens für eine Künstliche Generalisten-Intelligenz.
Die KIs, mit denen wir heute Kontakt haben, sind zwar Experten mit beeindruckenden Fähigkeiten – das aber eben jeweils nur in ihrem ureigenen Bereich, ihrer „Domäne“. Etwas despektierlich könnte man auch sagen: Sie sind Fachidioten. Weiter reicht auch ihr Ehrgeiz nicht. Ihre gesamte Zielsetzung, die individuelle Vorstellung von Erfolg, ist klar und in aller Regel auch recht eindimensional umrissen. Der Spurassistent hat nur ein einziges Ziel: die Spur möglichst perfekt zu halten. Das Erkennen von Krebszellen in einer CT ist ihm mangels entsprechender Programmierung wesensfremd – obwohl die Routinen der Bildanalyse durchaus ähnlich sein können.
Das instinktive menschliche Unbehagen – um nicht zu sagen Misstrauen – einer künstlichen Intelligenz gegenüber ist zwar verständlich, an dieser Stelle aber unbegründet. Die Herrschaft der Maschinen wird wohl noch ein wenig auf sich warten lassen.
Eines der spannendsten aktuellen Gebiete innerhalb der AI ist ohne Zweifel das Machine Learning. Zuweilen werden die beiden Begriffe gar synonym gebraucht – was aber nicht richtig ist. Denn innerhalb der AI existieren auch andere Möglichkeiten, menschliche Fähigkeiten zu emulieren. Wissensbasierte Systeme beispielsweise, ein großer klassischer AI-Bereich, kommen in großen Teilen ganz ohne Machine Learning aus.
Am Anfang von maschinellem Lernen steht immer ein Lernalgorithmus. Gefüttert wird er mit Daten, die einen Ausschnitt einer wie auch immer gearteten Realität abbilden. Zum Beispiel die Sensordaten einer Maschine, demographische Daten oder beispielsweise Daten über die Häufigkeit, mit der ein bestimmtes Wort in der Nachbarschaft von anderen auftaucht. Der Algorithmus lernt nicht, dass zwei Worte aus dem gleichen Bereich stammen, er erkennt, dass der eine Begriff mit erhöhter Wahrscheinlichkeit in einem Text auftaucht, in dem auch der andere vorkommt. Auf diese Weise kann er auch verborgene komplexere Muster erkennen, Wolken von Worten bilden, die mit hoher Wahrscheinlichkeit in einem sinnvollen Kontext zu einander stehen. Schließlich kann er auf Grundlage dieser Statistiken sogar Sätze bilden. Oder, um ein anderes berühmtes Beispiel der letzten Jahre aus dem Bereich der Bilderkennung zu nennen: Er kann mit verblüffend hoher Treffsicherheit Katzen und Nichtkatzen auf Bildern unterscheiden.
Für beide Beispiele gilt: Je mehr Daten dem Algorithmus zur Verfügung standen – je mehr er also zuvor LERNEN konnte –, desto wahrscheinlicher wird sein Urteil richtig sein. Eine dabei aber schnell übersehene, trotzdem aber enorm wichtige Voraussetzung ist die Validität der zum Lernen verwendeten Daten. Denn lässt man bei der Datenbasis willentlich oder auch unwillentlich wichtige Faktoren außer Acht, droht ein Bias, also eine Verzerrung der Ergebnisse. Dann passiert es eben, dass die scheinbar so zuverlässig arbeitende Erkennung von Gefühlsregungen auf Gesichtern bei Menschen aus dem asiatischen Raum plötzlich kläglich versagt – weil die Trainingsgrundlage zuvor eben nur auf kaukasischen Gesichtern beruhte. Oder die AI zum selbständigen Erstellen von Texten ergeht sich in rassistischen oder sexistischen Unflätigkeiten, weil sie mit einer riesigen Menge von unkuratierten Texten aus dem Netz trainiert wurde.
Grundsätzlich gibt es aber enorm viele sinnvolle und hilfreiche Anwendungsfenster für AI und Machine Learning. Die dynamische Steuerung des Verkehrsgeschehens, die Kartennavigation, die intelligente und frühzeitige Allokation zusätzlicher Ressourcen sind Beispiele dafür. Aber die Grauzone ist eben auch nur einen Schritt weit entfernt. Minderheiten fallen bei automatischen Vorfilterungen von Bewerbungen plötzlich durchs Raster, Menschen verlieren aus nicht nachvollziehbaren Gründen die Kreditwürdigkeit. Gesichter und Stimmen in Videos werden als Deep Fakes vollautomatisch durch andere ersetzt. Auch das ist AI. In diesen Fällen in ihren Schattenseiten.
Bei so jungen und sich so dynamisch wandelnden Technologien reicht das Vertrauen auf den Steuerungswillen und die Regelungsfähigkeit des Staates nicht aus. Die Verantwortung für die Wirkung und Folgen von AI-Mechanismen liegt bei den Menschen, die sie entwickeln und anwenden. Die Herausforderung, die sich uns stellt, ist diese Verantwortung zu begreifen und anzunehmen.