Künstliche Intelligenz dringt still und leise in einen der sensibelsten Bereiche der Medizin vor: Entscheidungen am Lebensende. Neue Forschungsergebnisse deuten darauf hin, dass KI möglicherweise die Wünsche eines Patienten hinsichtlich einer lebenserhaltenden Behandlung genauer vorhersagen könnte als Familienmitglieder und sogar eine proaktive Planung fördern könnte, bevor es zu Krisen kommt. Dies wirft jedoch komplexe ethische Fragen zur Rolle von Algorithmen bei zutiefst persönlichen Entscheidungen auf.
Der Aufstieg der prädiktiven KI in der Sterbehilfe
Zwei aktuelle Studien beleuchten, wie KI in der Sterbebegleitung getestet wird. Eine europäische Studie ergab, dass ein KI-„Patientenpräferenzprädiktor“ in 71 % der Fälle die Wünsche am Lebensende (z. B. ob ein Patient eine Herz-Lungen-Wiederbelebung wünschen würde) genau einschätzte und damit sowohl medizinische Fachkräfte als auch die Partner des Patienten übertraf. Die andere Studie, die in BJC HealthCare-Krankenhäusern in St. Louis durchgeführt wurde, zeigte, dass der Austausch von KI-generierten Sterblichkeitsrisikovorhersagen mit Ärzten zu einem deutlichen Anstieg der Planung am Lebensende führte, einschließlich einer stärkeren Inanspruchnahme von Palliativ- und Hospizpflege.
Die wichtigste Erkenntnis: Bei KI geht es nicht darum, Entscheidungen zu treffen, sondern darum, Gespräche anzuregen und sicherzustellen, dass Patienten ihre Wünsche äußern, bevor es zu spät ist. Die Krankenhäuser in St. Louis verzeichneten nach der Einführung des KI-gestützten Ansatzes einen Rückgang der 30-Tage-Sterblichkeitsrate um 33 %.
Die menschliche Aufsicht bleibt entscheidend
Forscher betonen schnell, dass KI nicht dazu gedacht ist, das menschliche Urteilsvermögen zu ersetzen. Die europäische Studie betonte die Notwendigkeit einer „gemeinsamen Argumentation“ zwischen KI und medizinischen Fachkräften, während die St. Louis-Gruppe Kliniker darin schulte, bessere Diskussionen über „Ziele der Pflege“ zu führen. Die Lehre aus früheren Fehlschlägen – wie dem APACHE III-Algorithmus aus den 1990er Jahren – ist, dass unverblümte, ungesteuerte Vorhersagen traumatisierend sein können, insbesondere für Patienten, die bereits unter Stress stehen.
Der moderne Ansatz: KI-Warnungen werden zunächst von einem zweiten Arzt überprüft, bevor sie geteilt werden. Dadurch wird eine „Alarmmüdigkeit“ vermieden und sichergestellt, dass die Informationen sensibel präsentiert werden.
The Next Frontier: „Moralische“ KI?
Einige Forscher untersuchen sogar die Möglichkeit eines KI-Ersatzes, der nicht nur Präferenzen vorhersagt, sondern auch die Werte, Beziehungen und kulturellen Weltanschauungen eines Patienten berücksichtigt. Dieses von einem Forscher der University of Washington vorgeschlagene Konzept zielt darauf ab, eine KI zu schaffen, die den Patienten nicht nur genau, sondern auch „moralisch angemessen“ darstellt.
Die große Frage: Kann ein Algorithmus wirklich die Nuancen menschlicher Werte erfassen, oder führt der Einsatz von KI zu einer gefährlichen Distanzierung von den emotionalen und spirituellen Aspekten des Todes?
Probleme aus der realen Welt und wirtschaftliche Auswirkungen
Der zunehmende Einsatz von KI in der Medizin gibt Anlass zur Sorge hinsichtlich einer übermäßigen Abhängigkeit von Technologie. Kritiker warnen davor, dass Vorhersagen nicht statisch sind und Patienten möglicherweise widersprüchliche Informationen aus anderen KI-Quellen einholen. Unterdessen prüfen Krankenhäuser auch die wirtschaftlichen Auswirkungen, einschließlich möglicher Einsparungen durch kürzere Krankenhausaufenthalte und die Nutzung von Intensivstationen.
Das Fazit: KI in der Sterbebegleitung ist kein fernes Zukunftsszenario, sondern eine sich schnell entwickelnde Realität. Die Herausforderung besteht darin, sicherzustellen, dass Technologie den menschlichen Werten dient und nicht umgekehrt.
