Штучний інтелект тихо проникає в одну з найбільш делікатних сфер медицини: рішення про кінець життя. Нове дослідження показує, що штучний інтелект може потенційно передбачати бажання пацієнта щодо лікування, що підтримує життя точніше, ніж члени сім’ї, і навіть заохочувати до проактивного планування до виникнення кризових ситуацій. Але це піднімає складні етичні питання щодо ролі алгоритмів у глибоко особистих рішеннях.
Зростання інтелектуального інтелекту в догляді за померлими
Два недавніх дослідження показують, як штучний інтелект тестується в догляді за померлими. Одне європейське дослідження показало, що «прогноз уподобань пацієнта» штучного інтелекту правильно вгадував уподобання наприкінці життя (наприклад, чи хоче пацієнт СЛР) у 71% випадків, перевершуючи як постачальників медичних послуг, так і партнерів пацієнта. Інший, проведений у лікарнях BJC HealthCare у Сент-Луїсі, виявив, що надання лікарям прогнозів смертності, створених штучним інтелектом, призвело до значного збільшення планування наприкінці життя, включаючи збільшення використання паліативної допомоги та хоспісу.
Ключовий висновок: ШІ призначений не для прийняття рішень, а для стимулювання розмов і забезпечення того, щоб пацієнти висловили свої побажання, поки не стане надто пізно. У лікарнях Сент-Луїса 30-денна смертність знизилася на 33% після впровадження підходу ШІ.
Людський контроль залишається вирішальним
Дослідники швидко підкреслюють, що штучний інтелект не призначений замінити людське судження. Європейське дослідження підкреслило необхідність «спільного обговорення» між штучним інтелектом і медичними працівниками, тоді як команда Сент-Луїса навчала лікарів вести більш ефективні дискусії про «цілі догляду». Урок минулих невдач, таких як алгоритм APACHE III 1990-х років, полягає в тому, що грубі, незбалансовані прогнози можуть бути травматичними, особливо для пацієнтів, які вже перебувають у стані стресу.
Сучасний підхід: перш ніж надавати сповіщення, створені штучним інтелектом, їх спочатку переглядає другий клініцист, щоб уникнути «втоми від сповіщень» і забезпечити конфіденційність інформації.
Наступний кордон: «моральний» ШІ?
Деякі дослідники навіть вивчають можливість створення сурогату штучного інтелекту, який не тільки передбачає вподобання, але й враховує цінності, ставлення та культурний погляд на світ пацієнта. Ця концепція, запропонована дослідником з Університету Вашингтона, спрямована на створення штучного інтелекту, який є не тільки точним, але й «морально прийнятним» у представленні пацієнта.
Велике питання: чи може алгоритм справді вловити нюанси людських цінностей, чи залежність від ШІ призведе до небезпечного від’єднання від емоційних і духовних аспектів смерті?
Реальні проблеми та економічні наслідки
Зростаюче використання ШІ в медицині викликало занепокоєння щодо надмірної залежності від технологій. Критики попереджають, що прогнози не статичні, і пацієнти можуть шукати суперечливу інформацію з інших джерел ШІ. Тим часом лікарні також вивчають економічні наслідки, включаючи потенційну економію від скорочення перебування в лікарні та використання відділень інтенсивної терапії.
Підсумок: штучний інтелект у догляді за померлими — це не перспектива віддаленого майбутнього, а реальність, що швидко розвивається. Завдання полягає в тому, щоб технології служили людським цінностям, а не навпаки.





























