Морални измерения на употребата на изкуствения интелект в грижата за човешкото здраве – действителни и въображаеми рискове – Александра Трайкова

Сп. „Етически изследвания“, бр. 4, кн. 2/2019

МОРАЛНИ ИЗМЕРЕНИЯ НА УПОТРЕБАТА НА ИЗКУСТВЕНИЯ ИНТЕЛЕКТ В ГРИЖАТА ЗА ЧОВЕШКОТО ЗДРАВЕ – ДЕЙСТВИТЕЛНИ И ВЪОБРАЖАЕМИ РИСКОВЕ

АЛЕКСАНДРА ТРАЙКОВА

Институт за изследване на обществата и знанието, БАН

al.tra@abv.bg

ОN THE MORAL ASPECTS OF AI USE IN HEALTH CARE – REAL VS. PERCEIVED RISKS

ALEKSANDRA TRAYKOVA

Institute for the Study of Societies and Knowledge, BAS

Abstract

Artificial intelligence (AI) is becoming an increasingly common feature of our everyday life, including social services and healthcare. With countries such as China facing a shortage of human doctors, it is also expected to relieve the pressures experienced by practitioners in the field of primary care by facilitating the process of preliminary (initial) diagnosis. Moral philosophers have expressed several areas of concern regarding the medical use of AI, for example its potential to induce permanent changes in our notions of privacy, personal information, care or responsibility, as well as in the way we construe patient-physician relationships, medical identities, and the social role of physicians. The main goal of this paper is to discuss whether the aforementioned concerns about the ethical categories of care and responsibility are valid. However, I will also attempt to investigate a possible connection in our moral intuitions between acting out of a sense of personal responsibility and being perceived as a person capable of providing care.

Кeywords: medical ethics, AI, healthcare, responsibility, care, relationships, social roles, risk

1. Въведение.

Изкуственият интелект (ИИ) навлиза в ежедневието ни с ускорени темпове, като все повече услуги започват да разчитат на компютри, работещи с огромни бази данни. Очаква се до броени десетилетия и здравеопазването по света да придобие нов облик под влиянието на тази тенденция. Най-осезаемите промени ще настъпят при първичните медицински прегледи (особено в страните с недостиг на лекари, като Китай, Англия и България) и образната диагностика. Тъй като предвижданите нововъведения включват възможността за събирането на чувствителна информация, както и тази за дистанционно наблюдение посредством умни устройства, употребата на ИИ в грижата за човешкото здраве повдига интересни етически въпроси. Какви са рисковете от злоупотреба и как ще ги дефинираме? Ще се променят ли понятията ни за лична информация и лично пространство? Оправдано ли е да оставяме субективни преценки (например дали определен пациент е с висок риск или не) на ИИ? Приемливо ли е да наблягаме на прецизността и скоростта в обслужването за сметка на фактори като грижата и човешкото общуване? Как ще еволюира ролята на лекаря в клиничната медицина и в обществото? Настоящата статия ще адресира накратко последните три от тези взаимосвързани въпроси и ще очертае сбита прогноза относно концептуалните промени, които можем да очакваме в етиката като следствие от технологичната революция в медицинските услуги. Поради невъзможността да се разгърне достатъчно подробен анализ на разглежданите феномени в рамките на едва десет страници, на останалите въпроси ще бъде отделено подобаващо внимание в по-нататъшни разработки.

2. Накратко за употребата на ИИ в съвременната медицина.

В медицината изкуственият интелект (ИИ) се използва основно, но не само, за обработка на огромни масиви от електронни данни за пациенти (например възраст, медицинска история, здравен статус, резултати от лабораторни изследвания, рентгенови снимки и ултразвукови изображения, и понякога ДНК последователности, в случай, че последните са били направени достъпни). Обработката цели да идентифицира тенденции или модел [1] в тези данни по надежден начин и със скорост, недостъпна за човешкия интелект (ЧИ). Желаният краен резултат е да се улесни максимално – тоест да се ускори и същевременно да се прецизира – процесът по вземане на клинични решения от страна на медицинския персонал. Първоначално ИИ започва да се използва в сферата на образната диагностика, където продължава да има най-широка употреба до този момент. Рентгеновите снимки, компютърната томография, ядрено-магнитният резонанс и ехокардиограмите, които допреди това разчитат на ЧИ за анализ и диагноза, биват сравнявани с почти необятно количество сходни изображения в рамките на броени секунди, след което ИИ отсъжда дали са налице данни за раково или сърдечно заболяване. Методът има особено висока успеваемост в т. нар. early screening [2] при засичането на предракови състояния и ранни стадии в сърдечно-съдовите заболявания, което го прави ценен с оглед на понижаването на смъртността от тези болести. Способността му да засича постепенни, почти неуловими промени в организма, е извън всякакво съмнение. Възникват следните няколко въпроса:

а) дали тази способност отстранява необходимостта от лекарска преценка като компонент на диагнозата;

б) какви етически релевантни рискове произтичат като следствие от депозирането на чувствителна лична информация за здравето на пациента;

в) дали имаме основание да смятаме, че отношението грижа като традиционен компонент на клиничните услуги може да отпадне изцяло от тях, докато ИИ постепенно измества ЧИ не само в диагностичния процес, но и в изпълнението на медицински процедури (операции, профилактика и други).

На въпрос а) ще отговоря в секция 3., на въпроси б) и в) – съответно в секции 4. и 5.

3. Необходимостта от лекарска преценка.

На пръв поглед въпросът дали превъзходството на ИИ над ЧИ в диагностичен план отстранява необходимостта от лекарска преценка представлява задача, попадаща извън обхвата на моралната философия и стриктно в този на клиничната практическа реалност. Решението е привидно просто и се състои в избирането на най-краткия и безпрепятствен път до зададената цел, като в случая целта е изработването на диагностичен етикет. Поставянето на диагноза обаче е акт, носещ силен нормативен заряд, произтичащ от очакването на последващи мерки (били те проследяване, лечение или по-нататъшни изследвания), както и от категоризирането на пациента като носител на определено заболяване (т.е. възникването на една нова медицинска идентичност, придобиването на нова социална роля за него). По дефиниция ИИ подхожда към изпълнението на своите задачи не само епистемически прецизно, а и етически неутрално. Ала моралният неутралитет невинаги е оптималната отправна точка, когато се касае за човешкото благополучие.

Ако може да се вярва на прогнозите на Коморовски [2017], че употребата на ИИ във визуалната диагностика ще доведе до увеличаване на случаите на свръхдиагностициране [3], то логично е да предположим, че лекарската преценка следва да придобие дори още по-голямо значение с оглед избягването на свръхтретиране. На ИИ може да се разчита да съкрати драстично броя на ненужните проследявания (followup appointments) и процедури, но що се отнася до избягването на излишни медицински процедури от потенциално животоизменящ характер, най-добрата мярка за превенция остава ЧИ. Това е така, тъй като до този момент единствено ЧИ е в състояние да проявява разбиране спрямо феноменологичните измерения на живота след подобни процедури, както и да предугажда как биха протекли процесите на адаптация и на психологическо възстановяване при конкретни пациенти. Тези способности на ЧИ го превръщат в незаменим елемент от предоставянето на качествена медицинска грижа, а оттам – и във важно условие за високото качество на живот на пациентите.

С други думи, субективният подход, характерен за ЧИ, в значителен брой случаи се явява необходимост, а не спънка при практикуването на добра медицина. В секция 4. ще представя допълнителен аргумент в подкрепа на това твърдение, като поясня връзката между способността за субективни преценки и способността за поемане на лична отговорност пред лица, към които имаме определени професионални задължения. Преди това обаче е редно в секция 3. да изтъкнем как възникването на медицинска култура, основаваща се на акумулирането на масиви от персонални данни, крие неподозирани рискове именно за досегашното ни понятие за отговорност.

4. Личната информация и рискът от избягване или прехвърляне на отговорност.

Един от значимите рискове покрай навлизането на ИИ в грижите за здравето възниква около събирането на биологична информация посредством апликации за мобилни телефони (където потребителят обикновено въвежда своите данни самостоятелно) или умни устройства за носене – например специални гривни и часовници, проектирани да проследяват параметри като пулса, кръвното налягане, двигателната дейност, съня и прочее. Търговията с лични данни в киберпространството [4] не е нов проблем и е обсъждана задълбочено в други етически разработки. За специалистите по медицинска етика обаче е от значение дали и как достъпът до изключително подробни, прецизни медицински данни за всеки от нас може да се отрази негативно на аспект от здравеопазването, който така или иначе се отличава с епистемични и властови дисбаланси, а именно отношението лекар-пациент (или доставчик-потребител на здравна услуга в общ смисъл). Ако за други лица е необходимо да извършат престъпление или най-малкото да преминат установени морални граници, за да се сдобият с цялата ни медицинска история, то за лекаря в най-скоро време ще е нужно единствено да има осигурен достъп до електронното ни здравно досие. Най-голямата заплаха, произтичаща от цялото това познание, не е очевидна от пръв поглед, тъй като не включва някакви определени действия, а тъкмо напротив – състои се в избягването им.

В страни като САЩ, където медицинско-правната култура се характеризира с особена възприемчивост към понятието за medical malpractice [5], делата срещу лекари и болници са ежедневие. Нерядко биват отказвани услуги на пациенти въз основа на високия риск да завършат с незадоволителен резултат, който после да се превърне в основание за дело. Подобни съображения ежегодно подтикват немалък брой лекари в САЩ и към това да извършват излишни, но иначе щадящи и неинвазивни процедури, за които знаят, че няма да променят състоянието на пациента, но с които целят да създадат впечатление за навременна реакция от своя страна (неофициално наричани CYA procedures [6] ). Както уточних още в секция 2., този риск може да бъде избегнат успешно с разпространението на машинните „грижи“, като това би намалило и разходите по ненужни намеси. Остава обаче рискът определени категории пациенти, за които ИИ изчисли, че се отличават с повишен риск от летален изход или тежки усложнения, да бъдат пренасочвани и прехвърляни между специалисти или от едно болнично заведение в друго, докато лекуващите се стремят да избягнат отговорността за състоянието им.

Като цяло категорията „отговорност“ губи измерения, когато се касае за ИИ, но остава в действие в контекста на ЧИ. Докато хората продължават да са основната движеща сила зад предоставянето на медицински услуги, пациентите винаги ще лежат на нечия съвест. Действително ИИ, генерирал определена диагноза въз основа на изображения от мамограми, не може да се превърне в мишена за стрелите на моралните съждения, дори ако е довел лекаря до решение за една, впоследствие оказала се прибързана, мастектомия. Такава цел би могъл да бъде единствено медицинският специалист, ангажирал се с клиничното решение и/или извършването на процедурата. В близките три десетилетия не се очертава подобни решения да бъдат оставени в ръцете на ИИ, така че притеснението дали няма изцяло да се простим с понятието за професионална отговорност на медиците може да отпадне напълно, поне засега. На дневен ред е по-скоро въпросът как да съхраним отговорността в качеството й на ценност и основен професионален код на поведение сред медицинските лица; как да не допуснем тя да се прилага единствено на избирателен принцип и когато това е удобно за практикуващия. Основна роля в решаването на този проблем би изиграло преместването на целевия фокус на всяка медицинска дейност от акта на „третиране“ (разбиран единствено в чисто практическото си измерение) към този на „грижа“ (включващ добронамереното желание за помощ или за облекчаване на чуждото страдание).

5. ИИ и понятието ни за грижа.

Някои от най-често задаваните въпроси по отношение на ИИ са дали етически категории като воля, съвест, отговорност, дълг или вина са приложими към него; дали ИИ е способен на емпатия, състрадание, любов или болка. Отговорите на тези въпроси, независимо дали са положителни или отрицателни, не би следвало да имат каквото и да било отношение към човешкото понятие за грижа. Същността на грижата като такава се определя не толкова от същността на онзи, който я предоставя, колкото от възприятията на нуждаещите се субекти, които я получават. В този смисъл е редно да се запитаме не дали ИИ може да функционира така, както функционират човешките същества (т.е. мислейки и чувствайки), а дали ние можем да възприемем ИИ по начина, по който възприемаме себеподобните си. Невъзможността това да се случи не произтича от някакви конкретни недостатъци в настоящите или бъдещите медицински приложения на ИИ, а във фундаменталната му същност на нещо, което не може да има собствен социален статус като член на морална общност (to possess social standing in one’s moral community).

Грижата е особен вид отношение, което може да бъде получено единствено от някого, възприеман като пълноценен член на морална общност (в случая – моралната общност на човешките същества), оперираща на базата на смислени взаимоотношения. [7] Това дали грижата ще произтича от професионален дълг, от искрено състрадание, в отговор на молба, в замяна на услуга, по принуда или просто от възпитание, не влияе върху това дали може да бъде класифицирана като автентична грижа. От съществено значение е единствено дали ние възприемаме полагащия тази грижа като някой, който действа не автоматично, а от подбуди, чийто морален заряд е достъпен за интелектуалното ни разбиране. Т.е. решаващият фактор е дали се касае за лице, с което на теория бихме могли да имаме смислени взаимодействия [8] и извън силно ограничения контекст на клиничните услуги; лице, което е в състояние да проявява грижа по повече от един начин и от различни съображения, но винаги с цел да помогне. Не считам, че е от съществено значение това да е единствената или дори основната цел на грижите – особено на медицинските. Напротив, голяма част от задълженията на лекуващия произтичат от професионалния код на поведение, а не от личния такъв. В известен смисъл това е обнадеждаващо, ако освобождава връзката лекар-пациент от произвола на личното отношение, или от условностите на човешкия нрав. Не възприемам за проблематична и тенденцията медицинските грижи да са поне частично мотивирани от възможността за материална изгода, доколкото още основателите на биоетиката се съгласяват, че финансовата мотивация е една от ключовите характеристики, отсяващи професионалния медик от добронамерения лечител-аматьор [Engelhardt 1986, 254]. [9] Важно е не толкова мотивацията да е морално възвишена, колкото да е морална per se, тоест да произтича от съображения, характерни за представителите на определена морална общност, отношенията между членовете на която се регулират посредством осъзнато балансиране между личното и чуждото благосъстояние. Подход от типа quid pro quo не само не е етически неприемлив, а дори се вписва адекватно в този тип общуване. Затова и не би било преувеличено да заявим, че подобни отношения са сред примерите, информиращи разбирането ни за отговорност – поне доколкото повечето от нас биха приели, че отговорност следва да се понася единствено за целеориентирани действия, отличаващи се едновременно със съобразителност и с очакване на определени последствия (дори, доста често, с желаенето на даден тип последствия).

Както вече уточних в секция 3., ИИ по дефиниция подхожда към своите задачи от позиция на морален неутралитет. С това изказване имам предвид, че горното описание не съответства на неговото поведение. ИИ не проявява съобразителност в нашия силно емоционално натоварен, човешки смисъл, а рационалност в един идеален, логичен смисъл; той не желае неща за себе си или за околните, нито носи отговорност за начина си на функциониране. Успешното изпълнение на задачата му ни най-малко не зависи от степента и естеството на мотивацията (ако изобщо може да се говори за такава), а единствено от програмирането му. В силен контраст с тази картина, у хората както грижата, така и мотивацията за нея, освен разновидности имат и степени, които влияят върху проявленията и качеството на грижата. В този смисъл грижата не е отношение, което може да бъде получено от морално неутрален агент, нито от такъв, който не притежава отговорност за собствените си действия или способност да съвместява разнородни и комплексни форми на мотивация в моралното си съзнание. Ето защо, поне на този етап от развитието на ИИ, лекарят не би могъл да бъде заместен от ИИ в качеството си на лице, предоставящо грижа. От това следва, че както медицинската идентичност, така и социалната роля на лекаря би трябвало да останат непроменени в рамките на близкото бъдеще.

6. Заключение.

От всичко изказано дотук можем да обобщим, че тревогите относно съдбата на досегашните ни разбирания за етическите категории „грижа“ и „лична отговорност“ са по-скоро неоснователни. Навлизането на ИИ в медицината, която традиционно е асоциирана с проява на човешки отношения като грижата и помощта, съвсем не означава, че тези отношения ще изчезнат или ще претърпят качествени изменения. Дори и да допуснем, че някои сфери или етапи от предоставянето на медицинска грижа могат съвсем скоро да преминат към пълна автоматизация, този процес едва ли ще остави по-траен отпечатък върху отношенията лекар-пациент, отколкото сравнимия по принцип процес на отделяне на лабораторната от клиничната медицина в началото на ХХ век. Подобни „откъсвания“ са съпровождали много от етапите в професионализацията на медицината през последните два века, тъй като са естествена част от стесняването на фокуса на съвременните лекари до една, най-много две или три специалности (с цел повече прецизност и дълбочина на познанията). Това дали лекуващият извършва повече или по-малко дейности в чисто практически план не би следвало да оказва влияние върху качеството на комуникацията с пациента, ако тя е подчинена на същия тип съображения. Лекарската препоръка също не би изгубила своята стойност, тъй като ЧИ, за разлика от ИИ до този момент, притежава способността да преценява феноменологичните аспекти на боледуването и лечението. На последно място, но не и по значение, ЧИ върви ръка за ръка с отговорността, която не може да бъде приписвана на ИИ, и която може да бъде избягвана или прехвърляна, но не и заличена като категория. Ако съществува значим етически риск, то той касае нейните практически проявления в клиничния контекст, и по-конкретно възможността чрез предварително придобита информация да се „отсяват“ определени пациенти, за да бъдат поемани само лесни случаи. Това обаче не е предизвикателство, с което ЧИ да не може да се справи посредством измислянето и имплементацията на системи за предотвратяване на подобен тип злоупотреби. Както казва Рей Курцвайл [2006], цитирайки Елиезер Юдковски, „единствената ни задача е да произведем нещо по-умно от нас; всички по-нататъшни проблеми ще бъдат решени от някого другиго.“ [10]

БЕЛЕЖКИ

[1] Или така наречените на английски език „patterns“.

[2] Англоезичен термин, рефериращ към ранен скрининг или ранна профилактика.

[3] Свръхдиагностицирането (от англоезичния термин „overdiagnosing”) представлява част от по-общата тенденция към свръхмедикализация в съвременната западна медицина. Терминът описва случаите, в които преждевременно се поставя диагноза за определено състояние въпреки наличието единствено на необходимия минимум от оскъдни данни, че действително се касае за това състояние. Обикновено свръхдиагностицирането е придружено и от незабавно преминаване към съответните терапевтични мерки, макар често пъти те да са прибързани или излишни. Пример: поставяне на диагноза за рак на цервикса при резултат от ПАП в 3 група, и издаването на лекарска препоръка за конизация, вместо за по-щадяща намеса като например химическото „обгаряне“ на атипичните клетки.

[4] При тези методи на екстракция винаги съществува шансът производителят на устройството/апликацията или доставчикът на дигиталната услуга за съхранение на информация да препраща данни към трети страни – понякога със знанието и изричното съгласие на потребителя, но друг път без да го известява или да търси разрешение от него. Този риск е проблематизиран в голям брой правни и етически текстове, но няма да бъде разгледан тук, тъй като попада извън фокуса на настоящата разработка.

[5] Англоезичен термин, обикновено превеждан като „медицинска злоупотреба“.

[6] CYA – Американски медицински професионален сленг. Зад акронима стои фразата „Cover Your Ass”, приблизително значение „вържи си гащите; застраховай се“ на български език.

[7] Разбира се, грижата може да бъде насочена и към същества, които не са членове на въпросната морална общност (например към домашни любимци), но не може да бъде получена от тях. Планирам да доразвия тази теза и аргументите в нейна подкрепа другаде.

[8] По-ранна версия на тази статия породи въпроса какво разбирам под „смислени взаимоотношения“. Най-краткият отговор би бил „взаимоотношения, породени въз основа на взаимно разбиране и обслужващи поне една конкретна цел, която да се явява обща за субектите, вземащи участие в отношенията.“

[9] В българската академична литература също не липсват текстове, посочващи някои основания за паралел между отношенията лекар-пациент и отношенията търговец-клиент. Миков [2014, 261] признава, че „в моралните медицински стандарти не се включва изрично някакво предписание и разбиране за лекуването като алтруистична или доброволческа практика“, а „обвързването на медицина и консумация не носи по подразбиране нещо осъдително или порицаемо.“

[10] Сърдечни благодарности на Емануил Спасов, който ме насочи към тази книга. Преводът на това изречение е мой, оригиналът гласи: „our sole responsibility is to create something smarter than we are; any problems beyond that are not ours to solve…”

ЛИТЕРАТУРА

Миков, И. (2014). Една перспектива към „медикализирането на консумацията“. В: Европейските етични стандарти и българската медицина. Маринова, Е. и Попова, С. (Съст.), С., Издател „Български лекарски съюз“, 261 269.

Engelhardt, H. T. (1986). The Foundations of Bioethics. New York, Oxford University Press.

Komorowski, M. and Celi, A. (2017). Will Artificial Intelligence Contribute to Overuse in Healthcare? In Critical Care Medicine, кн. 45, бр. 5, 912 – 913.

Kurzweil, R. (2006). The Singularity is Near: When Humans Transcend Biology. London, Penguin Books.