Sztuczna inteligencja po cichu wkracza do jednego z najbardziej wrażliwych obszarów medycyny: decyzji dotyczących końca życia. Nowe badania pokazują, że sztuczna inteligencja może potencjalnie przewidzieć życzenia pacjenta dotyczące leczenia podtrzymującego życie dokładniej niż członkowie rodziny, a nawet zachęcić do proaktywnego planowania przed wystąpieniem sytuacji kryzysowych. Rodzi to jednak trudne pytania etyczne dotyczące roli algorytmów w głęboko osobistych decyzjach.
Rozwój predykcyjnej sztucznej inteligencji w opiece u schyłku życia
Dwa niedawne badania pokazują, w jaki sposób sztuczna inteligencja jest testowana w opiece u schyłku życia. Jedno z europejskich badań wykazało, że „predyktor preferencji pacjenta” oparty na sztucznej inteligencji prawidłowo odgadł preferencje pacjenta pod koniec życia (takie jak to, czy pacjent chciał wykonać RKO) w 71% przypadków, osiągając lepsze wyniki zarówno wśród świadczeniodawców, jak i partnerów pacjenta. Inne badanie, przeprowadzone w szpitalach BJC HealthCare w St. Louis, wykazało, że udostępnianie lekarzom prognoz śmiertelności generowanych przez sztuczną inteligencję doprowadziło do znacznego wzrostu planowania końca życia, w tym zwiększonego korzystania z opieki paliatywnej i hospicjum.
Kluczowy wniosek: Sztuczna inteligencja nie polega na podejmowaniu decyzji, ale na stymulowaniu rozmów i upewnianiu się, że pacjenci wyrażają swoje życzenia, zanim będzie za późno. Szpitale w St. Louis odnotowały 33% zmniejszenie śmiertelności w ciągu 30 dni po wdrożeniu podejścia opartego na sztucznej inteligencji.
Kontrola człowieka pozostaje kluczowa
Badacze szybko podkreślają, że sztuczna inteligencja nie ma na celu zastąpienia ludzkiego osądu. Europejskie badanie podkreśliło potrzebę „wspólnego rozumowania” między sztuczną inteligencją a pracownikami służby zdrowia, podczas gdy zespół z St. Louis przeszkolił lekarzy w zakresie skuteczniejszego prowadzenia dyskusji na temat „celów opieki”. Wniosek z poprzednich niepowodzeń, takich jak algorytm APACHE III z lat 90. XX wieku, jest taki, że prymitywne i niezrównoważone przewidywania mogą być traumatyczne, zwłaszcza dla pacjentów już znajdujących się pod wpływem stresu.
Nowoczesne podejście: zanim powiadomienia wygenerowane przez sztuczną inteligencję zostaną przesłane, są one najpierw sprawdzane przez drugiego lekarza, aby uniknąć „zmęczenia powiadomieniami” i zapewnić delikatne przedstawianie informacji.
Następna granica: „moralna” sztuczna inteligencja?
Niektórzy badacze badają nawet możliwość stworzenia surogatu sztucznej inteligencji, który nie tylko będzie przewidywał preferencje, ale także uwzględniał wartości, postawy i kulturowy pogląd na świat pacjenta. Koncepcja ta, zaproponowana przez badacza z Uniwersytetu Waszyngtońskiego, ma na celu stworzenie sztucznej inteligencji, która będzie nie tylko dokładna, ale także „moralnie właściwa” w przedstawianiu pacjenta.
Ważne pytanie: czy algorytm może naprawdę uchwycić niuanse ludzkich wartości, czy też uzależnienie od sztucznej inteligencji spowoduje niebezpieczne odłączenie się od emocjonalnych i duchowych aspektów śmierci?
Prawdziwe problemy i konsekwencje ekonomiczne
Rosnące wykorzystanie sztucznej inteligencji w medycynie wzbudziło obawy dotyczące nadmiernego polegania na technologii. Krytycy ostrzegają, że przewidywania nie są statyczne i pacjenci mogą szukać sprzecznych informacji z innych źródeł sztucznej inteligencji. Tymczasem szpitale badają również skutki ekonomiczne, w tym potencjalne oszczędności wynikające ze skrócenia czasu pobytu w szpitalu i wykorzystania oddziałów intensywnej terapii.
Podsumowanie: sztuczna inteligencja w opiece u schyłku życia nie jest odległą perspektywą na przyszłość, ale szybko ewoluującą rzeczywistością. Wyzwanie polega na tym, aby technologia służyła wartościom ludzkim, a nie odwrotnie.





























