Libratus und Co
Von Gerhard Schimpf.
Blicken wir auf das Jahr 2017 zurück, dem Jahr in dem die Idee für unsere Veranstaltung „Menschsein mit Algorithmen“ entstand, sehen wir gewaltige Fortschritte im Bereich der Algorithmen. Lernende, teilweise selbst lernende und handelnde Systeme haben Aufgaben gelöst, bei denen normal begabte Menschen in der Regel scheitern. Die folgenden Beispiele mögen das erläutern.
- Im Januar 2017 siegte das System Libratus in einem 20 Tage dauernden Match gegen vier professionelle Poker Spieler. Die Komplexität dieser Aufgabe, bei der man im Gegensatz zu Schach nicht in die Spielsituation der Gegner blicken kann, ergibt sich aus der astronomisch hohen Zahl von Entscheidungspunkten, die man in herkömmlicher Programmiertechnik nicht im Voraus berechnen kann. Um zu gewinnen musste das Programm mit jedem Spielzug eine erfolgversprechende Heuristik ermitteln.
(Brown und Sandholm, Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI-17). - Im Frühjahr 2017 ist eine weitere Bastion des Menschen gefallen. Bereits im Jahr zuvor hat das von David Silver und Kollegen entwickelte Google Programm AlphaGo den derzeit besten Spieler dieses vertrackten Brettspiels, Lee Sedol, mit 4:1 geschlagen. Im Jahr 2017 gab es eine Rückrunde mit den verbesserten Algorithmen von AlphaZero. Dieses Mal gewann die Maschine mit 5:0 alle Spiele. Der Fortschritt gegenüber 1996 ist fundamental anders, als Deep Blue den Schachweltmeister Gary Kasparow besiegte, oder 2011 als IBMs Denkmaschine Watson beim Fernseh-Quizspiel „Jeopardy!“ gewann. Nicht nur hat AlphaZero brilliant gespielt und Spielzüge gezeigt, auf die Go-Spieler in den letzten Tausend Jahren nicht gekommen sind, die Maschine hat sich diese Fähigkeiten auch weitgehend selbst beigebracht.
(Silver et al Mastering the game of Go without human knowledge, Nature 550, 354 -359) - Weitere Fortschritte wurden mittels intelligenter Bildanalyse im Bereich der medizinischen Diagnostik erzielt. Bei Tests haben lernende Algorithmen bei der Beurteilung von Leberflecken und deren Zuordnung zu Hautkrebsarten zahlenmäßig besser abgeschnitten als erfahrene Dermatologen. Ähnliche Ergebnisse gab es bei der Beurteilung von Bildaufnahmen mit Augenkrankheiten, die von Algorithmen besser erkannt wurden als von Augenärzten.
Das alles mag auf den ersten Blick unterhaltsam und wenig beunruhigend sein. Die Brisanz dieser Algorithmen, die nach und nach in Form von Anwendungsprogrammen den Weg in unseren Alltag finden, liegt darin, dass deren Entscheidungen wegen der Komplexität nicht begründet und nachvollzogen werden können. Wenn aber Entscheidungen, bei denen der Mensch außen vor bleibt und die nicht hinterfragt werden können, geht es an fundamentale Rechte in unserer Gesellschaft. Nach unserem Rechtssystem hat aber jeder ein Anrecht darauf, dass Entscheidungen begründet und notfalls revidiert werden können.
Damit ist die Szene gesetzt für unser Symposium Mensch-Sein mit Algorithmen. Wir suchen das Gespräch mit Fachleuten und einen interdisziplinären Austausch von Meinungen und Beurteilungen.