Arama yapmak için lütfen yukarıdaki kutulardan birine aramak istediğiniz terimi girin.

„Decision-Support-System“ für Therapieentscheidungen am Lebensende?

Gunnar DUTTGE

I. Die aktuelle Herausforderung

Die „schöne neue Welt“ hat längst begonnen: „Computersysteme stellen medizinische Diagnosen und geben Rechtsberatung; sie managen den Aktienhandel, steuern Waffensysteme und vielleicht bald auch unsere Autos; sie malen, dichten, dolmetschen und komponieren [...]. Roboter begrüßen uns im Hotel, im Supermarkt und am Flughafen, sie führen uns durchs Museum und rufen an, wenn sie mit einem Päckchen vor der Tür stehen; sie pflücken Gurken, beaufsichtigen Kühe, zapfen Bier, mähen Rasen, putzen Fenster, montieren Handys, spielen Dudelsack oder Fußball, braten Burger und schnipseln den Salat dazu. Künstliche Intelligenz boomt...“.1 Anlässlich dieses Schwerpunktthemas des laufenden Wissenschaftsjahres hat deshalb erst unlängst die Bundeskanzlerin verlautbaren lassen, dass sich Deutschland „zum führenden KI-Standort“ entwickeln solle und einschlägige Forschung entsprechend finanziell gefördert werde.2

Die Vorzüge computerbasierter Prozesssysteme gegenüber menschlichem Entscheidungsverhalten liegen spätestens seit „Deep Blue“,3 „Watson“4 und „AlphaGo-Zero“5 auf der Hand: Um ein Vielfaches höher ist die Schnelligkeit und kombinatorische Kapazität bei der Verarbeitung der relevanten Daten; computerbasierte Einheiten funktionieren - auf Basis der ihnen zugrunde liegenden Algorithmen - absolut fehlerfrei, ohne „blinde Flecke“, ohne „Vergesslichkeit“ und insbesondere ohne typisch menschliche Störanfälligkeiten (wie Emotionen, Irrationalitäten usw.); und schließlich gibt es für sie - anders als für menschliche Entscheidungsträger - keine grundsätzliche Limitation hinsichtlich der relevanten Anwendungsfelder, sofern sie nur mit einer funktionablen Software versehen sind. Intelligente Elektronik ist im höchsten Maße zuverlässig, effektiv und praktikabel; ihr Outcome ist stets faktenbasiert und nicht intuitiv. Sie übt für den Menschen seit jeher eine ungeheure Faszination aus, weil sie ihm verheißt, seine eigenen naturgegebenen Limitationen zu überwinden. Der „künstliche Helfer“, geformt in des Menschen schöpferischen Händen, ist nicht weniger als ein Menschheitstraum schon seit den Mythen der Antike.6 „Intelligent“ ist diese Schöpfung dann, wenn sie nicht mehr ausschließlich innerhalb der starren prä-programmierten Bahnen funktioniert und damit in ihren Variationsmöglichkeiten vollständig determiniert ist, sondern sich flexibel an die jeweilige Aufgabe und Situation anpasst und auf Basis einer fortlaufenden Ansammlung von Rückmeldungen auf Problemlösungsversuchen („Erfahrungen“) sukzessive zur Selbstoptimierung („Lernen“) imstande ist.7 Die gängigste Methode des „maschinellen Lernens“ ist das überwachte Lernen, bei dem das System durch eine Vielzahl von Versuchen und Feedbacksignalen auf die gewünschte Funktionalität hin gleichsam trainiert und optimiert wird; ein selbsttätiges Lernen („deep learning“) erfordert hingegen ein (mehrstufiges) künstliches neuronales Netzwerk (KNN) mit automatisierter Rückkoppelung und Optimierung, dazu unzählige Daten, hochleistungsfähige Computer und eine für die Problemlösung geeignete Konfiguration.8

Besonders attraktiv erscheinen maschinelle Funktionseinheiten immer dann, wenn sie in der Lage sind, prognostische Aufgaben besser - d.h. mit größerer Treffsicherheit bzw. Sachrichtigkeit - zu erfüllen, als dies menschlichen Entscheidungsträgern möglich ist. Denn gerade bei Prognosen über künftige Ereignisse - sei es die wirtschaftliche Entwicklung oder das Klima, der Therapieerfolg bei Suchtkranken oder die Rückfallwahrscheinlichkeit von Straftätern9 - lassen sich Unwägbarkeiten ohne valide, auf verlässlichen Risikofaktoren basierende Prognoseinstrumente nicht beseitigen. Gerade hier offenbart der punktuelle Einsatz von Algorithmen aber schon heute erstaunliche Erfolge: So untersuchte z.B. ein Forscherteam die Strafakten aller Personen, die in New York City zwischen 2008 und 2013 verhaftet wurden und für die richterlich über Freilassen gegen Kaution oder Haft zu entscheiden war.10 Der auf Basis relevanter Daten (zur Tat, zu den Vorstrafen etc.) entwickelte Algorithmus zeigte, dass ca. der Hälfte der Delinquenten zu Unrecht ein geringes Risiko zugeschrieben wurde, weil etwa 2/3 von ihnen nach Freilassung - wie IT-basiert prognostiziert - erneut straffällig wurde oder seiner Erscheinenspflicht nicht nachkam. Bei einer derart hohen Fehlerquote wird man spiegelbildlich ebenfalls annehmen müssen, dass ein nicht geringer Anteil zu Unrecht als „Hochrisikoträger“ klassifiziert wurde mit der Folge weiterer (nicht gerechtfertigter!) Inhaftierung. In Rhode Island werden solche Entscheidungen inzwischen mit Hilfe eines aufgabenspezifischen Algorithmus getroffen: Seither befinden sich 17 % weniger Menschen im Gefängnis und sind 6 % weniger Delinquenten erneut straffällig geworden.11