Kunstmatige intelligentie beweegt zich stilletjes naar een van de meest gevoelige gebieden van de geneeskunde: beslissingen over het levenseinde. Nieuw onderzoek suggereert dat AI mogelijk de wensen van een patiënt met betrekking tot een levensverlengende behandeling * nauwkeuriger * kan voorspellen dan familieleden, en zelfs proactieve planning kan aanmoedigen voordat zich crises voordoen. Maar dit roept complexe ethische vragen op over de rol van algoritmen bij diep persoonlijke keuzes.
De opkomst van voorspellende AI in de doodszorg
Twee recente onderzoeken benadrukken hoe AI wordt getest in de zorg rond het levenseinde. Uit een Europese studie bleek dat een AI-‘patiëntvoorkeursvoorspeller’ 71% van de tijd nauwkeurig de wensen over het levenseinde raadde (bijvoorbeeld of een patiënt reanimatie zou willen), en daarmee beter presteerde dan zowel medische professionals als zelfs de partners van de patiënt. De andere, uitgevoerd in BJC HealthCare-ziekenhuizen in St. Louis, toonde aan dat het delen van door AI gegenereerde sterfterisicovoorspellingen met artsen leidde tot een aanzienlijke toename van de planning van het levenseinde, inclusief meer gebruik van palliatieve zorg en hospicezorg.
De belangrijkste conclusie: AI gaat niet over het maken van beslissingen, maar over het aanzetten tot gesprekken en ervoor zorgen dat patiënten hun wensen uiten voordat het te laat is. De ziekenhuizen in St. Louis zagen het sterftecijfer na 30 dagen met 33% dalen na de implementatie van de AI-ondersteunde aanpak.
Menselijk toezicht blijft cruciaal
Onderzoekers benadrukken snel dat AI niet bedoeld is om het menselijk oordeel te vervangen. Het Europese onderzoek benadrukte de noodzaak van ‘co-redenering’ tussen AI en medische professionals, terwijl de St. Louis-groep artsen trainde om betere ‘zorgdoelen’-discussies te voeren. De les uit mislukkingen uit het verleden – zoals het APACHE III-algoritme uit de jaren negentig – is dat botte, ongeleide voorspellingen traumatiserend kunnen zijn, vooral voor patiënten die al onder stress staan.
De moderne aanpak: AI-waarschuwingen worden eerst beoordeeld door een tweede arts voordat ze worden gedeeld, waardoor ‘waarschuwingsmoeheid’ wordt vermeden en ervoor wordt gezorgd dat de informatie met gevoeligheid wordt gepresenteerd.
De volgende grens: “morele” AI?
Sommige onderzoekers onderzoeken zelfs de mogelijkheid van een AI-surrogaat dat niet alleen voorkeuren voorspelt, maar ook rekening houdt met de waarden, relaties en het culturele wereldbeeld van een patiënt. Dit concept, voorgesteld door een onderzoeker van de Universiteit van Washington, heeft tot doel een AI te creëren die niet alleen nauwkeurig is, maar ook ‘moreel adequaat’ in zijn representatie van de patiënt.
De grote vraag: Kan een algoritme werkelijk de nuances van menselijke waarden vastleggen, of zal het vertrouwen op AI een gevaarlijke afstand tot de emotionele en spirituele aspecten van de dood creëren?
Zorgen uit de echte wereld en economische implicaties
Het toenemende gebruik van AI in de geneeskunde doet zorgen rijzen over een te grote afhankelijkheid van technologie. Critici waarschuwen dat voorspellingen niet statisch zijn en dat patiënten tegenstrijdige informatie uit andere AI-bronnen kunnen zoeken. Ondertussen onderzoeken ziekenhuizen ook de economische impact, inclusief potentiële besparingen door verminderde ziekenhuisverblijven en het gebruik van intensive care-afdelingen.
Waar het op neerkomt: AI in de zorg aan het levenseinde is geen verre toekomstscenario, maar een snel evoluerende realiteit. De uitdaging ligt erin ervoor te zorgen dat technologie de menselijke waarden dient, en niet andersom.





























