Сп. „Етически изследвания“, бр. 7, кн. 2/2022
ЗА ДОВЕРИЕТО И ИЗКУСТВЕНИЯ ИНТЕЛЕКТ В МЕДИЦИНАТА
АТАНАС АНОВ
Медицински университет – Плевен
atanas.anov@mu-pleven.bg
ON TRUST AND ARTIFICIAL INTELLIGENCE IN MEDICINE
ATANAS ANOV
Medical University – Pleven
Abstract
Artificial intelligence (AI) is becoming an increasingly significant part of our lives, both with its simple and its more complex manifestations. With each passing day, humanity gets used to – and trusts – AI, without always realizing the consequences of its implementation in various daily human activities. Medicine is a specific activity, and trust towards medicine is a value as old as medicine itself. Trust in medical professionals has its sensory manifestation. The patient sees the person he trusts. The implementation of AI in medical practice raises the question, „How can we trust artificial intelligence when we can’t see it?“ This question applies to patients and medical professionals alike. This paper aims to present the issue of trust in the context of medical ethics and artificial intelligence’s applications in medical practice. First, I will briefly outline the ethical and epistemological side of „trust“ within a broader ethical discourse and emphasize the idea of „trust as an action“. Second, I will move on to discuss some achievements of artificial intelligence in medical practice: ethical reflection on the automation of the work process in hospitals; anticipating the preferences of a patient unable to express his wish in a substitute decision-making situation; robot social assistants.
Keywords: Artificial intelligence, trust, workflow automation, patient preference prediction, robots as social assistants.
Въведение
Изкуственият интелект (ИИ) навлиза все по-навътре в нашия живот със своите прости и сложни проявления. Той е до такава степен навлязъл в ежедневието ни, че понякога дори не можем да дадем простичко определение за това какво е ИИ. Въпреки това, с всеки изминал ден човечеството свиква и се доверява на ИИ, без винаги да си дава сметка за последствията от внедряването му в различните ежедневни дейности.
Някои идеи за доверието
При изследването на доверието се забелязва една интересна ирония. То е човешка способност от особено значение, тъй като без нея човек или не може да съществува, или би изпаднал в някакъв безкраен и непродуктивен скептицизъм. Настоящият текст няма да се занимава с тази ирония, а по-скоро с това, което я предизвиква.
Най-бързият начин да отговорим на въпроса “Какво е доверие“ е да се обърнем към речника. Една проверка в Интернет ще ни покаже, че дефиницията на думата доверие е следната: „ср., само ед. ч. Вяра в добрите намерения на някого, в неговото благоразположение, в неговата порядъчност, съзнателност, професионализъм“.[1] Тази проста дефиниция ще е нашата отправна точка за кратка етическа и епистемологическа рефлексия спрямо доверието. В нея се вижда първата важна черта на доверието. То е комбинация от различни поведения. Според значението на думата в българския език това е предимно вярата, в английския език участват още оптимизъм и надежда. Втората важна черта на доверието е, че то е насочено към друг агент, който има за задача да извърши някакво действие. Тази втора важна черта дава възможност за разсъждения върху проблема откъм неговата негативна страна, а именно доверие и наблюдение на агента, извършващ дадено действие (Carter and Simion, 2020).
В един общ план можем да обобщим етическите и епистемологическите рефлексии към доверието по следния начин: доверието като разчитане на някого да извърши действие; доверието като състоящо се от два дяла или от три дяла; доверие и вяра; доверието като действие.
Доверието като вид разчитане на някого да извърши някакво действие. Да разчиташ на някого или нещо е широко разпространено действие в различните дискурси. Човек разчита на автомобила си да не се развали, когато е на път. Разчитаме на куриера да достави пратката навреме. Един критичен поглед към доверието забелязва, че то е нещо повече от това. Annette Baier акцентира върху това, че когато се доверяваме на някого да извърши дадено действие, последният ще извърши това от добра воля към този, който му е поверил извършването на действието (Baiеr, 1986). Baier разпознава една уязвимост, която всеки от нас притежава спрямо този, който ще извърши даденото действие. Доверяващият се е уязвим по отношение на границите на добрата воля на действащия агент (Baier, 1986).
Друг важен момент, който надгражда етическата рефлексия към доверието, е идеята, че за него е от значение и ангажираността на действащия агент към извършването на действието (Hawley, 2014). Тази ангажираност е свързана с риск от предателство от страна на действащия агент. Агентът може да е поел ангажимент да извърши дадено действие, но накрая да не го извърши. Така според Hawley можем да говорим за неоснователно доверие (misplaced trust).
Доверието като състоящо се от два дяла или от три дяла. Тази идея е опит за формализиране, в чисто логически смисъл, на доверието. За Horsbrugh, доверието може да се състои от два дяла (Horsbrugh, 1960). Например, А има доверие на Б, като тук към доверието се гледа в един общ план. Докато при тридяловото разглеждане на доверието, когато например А се доверява на Б да извърши Х, се появява обектът на доверието (Carter and Simion, 2022), който ще е от значение за цялостното разбиране на проблема за доверието. В литературата могат да се намерят дебати по отношение на това кое от двете е фундаментално – тридяловата или двудяловата перспектива спрямо доверието. За настоящия текст този проблем не е от значение.
Доверие и вяра. Третият аспект на доверието е неговата връзка с вярата. Carter посочва, че привържениците на идеята[8] приемат, че доверието включва вяра от страна на доверителя. Доверяващият се има вярата, че другият агент ще извърши действието: А се доверява на Б да извърши действие Х, вярвайки, че Б ще извърши действие Х (Carter and Simion, 2022).
Доверието като действие. Разглеждайки проблема за доверието в различните негови концепции и опитите за формализация на някои обяснения, някак на заден план се появява идеята на Джон Л. Остин за перформативи (Остин, 1996). Доверието е особен вид действие. Когато казваме “Имам ти доверие” или “Доверявам ти се”, ние не описваме някакво състояние на нещата в света. Ние извършваме дадено действие спрямо друг агент. В положението “А се доверява на Б да извърши действие Х” се забелязва същото действие. Въпросът е как се появява етическата натовареност на доверието. Разглеждано през призмата на перформативите, доверието получава своята етическа и епистемична натовареност чрез перлокутивния ефект, който създава у слушателя. Да поясним. Перформативите на Остин имат три части: локация, илокация и перлокация. Илокацията е изпълнение на определен перформатив. Перлокацията представлява постигането на определени следствия, определен ефект чрез употребата на определен перформатив (Остин, 1996). Етическата натовареност се появява, когато се извърши перформативът спрямо друг агент. Ефектът на доверието към другия агент е моментът, в който у доверяващия се ще се създаде очакването, че този, на когото се е доверил, ще извърши дадено действие в рамките на дадена конвенция. Във втория агент ще се създаде очакването да извърши определено действие, покриващо очакванията на доверяващия се в рамките на същата конвенция. Действащите конвенции, обаче, не винаги са ясно дефинирани. Епистемологичната натовареност на доверието ще се появи, когато действат научните конвенции.
Доверието като действие присъства и в медицинската практика. Това действие е двупосочно: от специалист към пациент и от пациент към специалист. Относно първата ситуация – доверието от специалист към пациент – е важно да се отбележи, че тя има своята професионална етическа регулация и натовареност. В Кодекс за професионална етика на лекарите в България се посочва, че „лекарят може да откаже лечение и консултация, когато е убеден, че между него и пациента липсва необходимото доверие или липсват условия за изпълнението на неговите професионални права и задължения” (Александрова-Янкуловска, 2016). Това положение от Кодекса не е в сила в ситуация на спешен случай. Въпреки че втората ситуация е доста позната, тя винаги ще е от значение във взаимоотношенията между медицинския специалист и пациента. Когато в тези отношения бъде въвлечена нова технология като ИИ, доверието като фундаментална ценност за медицината е поставено под сериозно съмнение. Как да се доверим на изкуствения интелект, когато не го виждаме? Този въпрос е за пациентите, но и за медицинските специалисти. На чия преценка да се довери пациентът – тази на лекаря или тази на ИИ?
Етика и Изкуствен интелект
Човечеството е преминало през няколко индустриални революции, които под една или друга форма успяват да променят живота на хората. Появата на ИИ и навлизането му в ежедневието могат да бъдат разглеждани като нова революция за човечеството с глобално значение [2]. Въпреки че има немалко инициативи за субсидиране на изследвания в областта на социалните и етическите приложения на ИИ [3-6], темата не е добре засегната в сферата на академичната биоетика и по-конкретно в контекста на глобалното здравеопазване (Murphy, et al., 2021). Здравеопазването е територия, която позволява бързото навлизане на ИИ в различни сфери: промоция на здравето, превенция и профилактика, ранно засичане на инфекциозни заболявания и др. Поради това бившият директор на Световна Здравна Организация д-р Margaret Chan определя използването на ИИ в здравеопазването като “новата граница за здравето с трансформиращи приложения” [7].
Изследването на Murphy и колектив (scoping review) дава полезна информация как се развива етическата рефлексия спрямо приложението на ИИ в контекста на здравеопазването и медицината. Изследването обхваща официални академични източници, но също така и източници от сивата литература. Екипът обхваща публикации по темата между 1989 и 2018 г., като отбелязва, че най-голяма публикационна дейност има в периода 2014–2018 г. От сивата литература най-популярните теми в сферата на етиката и ИИ са: роботи асистенти (care robots); диагностика и прецизирана медицина.
Роботите асистенти са една от най-дискутираните теми в литературата. Повечето публикации са ориентирани около проблемите за автономността на възрастния, който ползва робот асистент, както и около загубата на работни места поради внедряването на роботи асистенти (Murphy, et al., 2021). Vandemeulebroucke и колектив предлагат интересен подход към роботите асистенти. На първо време те развиват деонтологичен подход към проблема: възрастният пациент трябва да бъде възприеман като цел, а не като средство за постигане на нечии чужди цели. Той трябва да бъде възприеман като автономна и достойна личност. Въвличането на роботи асистенти в грижата за възрастните пациенти ще постави императива на Кант под заплаха, тъй като те могат да бъдат разглеждани като средства за постигане на цели. Идеята да се включи робот асистент в грижата за възрастния пациент е, че последният трябва да има пряка полза от това, а не просто да се премахне емоционалната тежест над обществото при грижата за възрастните хора като цяло. По-конкретно, възрастният пациент се превръща в обект без автономност и достойнство. Той/тя трябва просто да следва инструкциите на робота (Vandemeulebroucke, et al., 2018). Трябва да се отчетат и позитивните страни. Често пъти роботите асистенти успяват да предотвратят вреда, например при пациенти, които пропускат приема на медикаменти по определената от специалиста схема (Vandemeulebroucke, et al., 2018). Пропускането на медикаменти може да окаже бърз негативен ефект върху организма на възрастния пациент. В случая действието на робота асистент е пряка намеса в автономията на пациента, но този вид патернализъм е оправдан с оглед на неговата крайна цел – защита на пациента. Може да отидем и по-далеч. Въпреки че идеята е в лоното на деонтологията, можем да оправдаем намесата на робота асистент в личната свобода и личното пространство на възрастния пациент от утилитарна гледна точка. Принципът на Джон Стюарт Мил за нанасяне на вреда има две важни особености:
1. Нанасяне на вреда като принцип против-нараняване (anti-harm principle): A може да ограничи свободата на Б, само за да попречи на Б да наранява други.
2. Нанасяне на вреда като принцип предотвратяване на вреда (harm-prevention principle): А може да ограничи свободата на Б, само за да предотврати нараняване на други (Brink, 2022).
С оглед на описания по-горе патернализъм, упражняван от робот асистент спрямо възрастен пациент, можем да променим формулировката на принципа против-нараняване:
3. А може да ограничи свободата на Б, възрастен пациент, само за да попречи на Б да нарани сам себе си.
Принципалисткият подход към роботите социални асистенти бележи прогрес при справянето с проблема за автономността на възрастния пациент. Израз на уважение към автономността на възрастния пациент е запознаването на достъпен език на възрастния пациент с възможностите на робота и с мястото, което той ще заеме в живота му, и по-важното: да го запознаят, че той (възрастният пациент) ще може да контролира робота. Така ще се даде възможност на възрастния пациент да упражни своя информиран избор относно това дали иска да използва робота. Благодеянието и ненанасянето на вреда ще са насочени към насърчаване на физическото и психологичното благополучие на възрастния пациент, към засилване на неговата автономност и същевременно към предпазването му от вреди. Vandemeulebroucke и колектив посочват, че една от основните вреди, които могат да бъдат нанесени на възрастните пациенти, е предизвикана от силна привързаност към робота. Отнемането на робота от възрастния пациент, създал силна връзка с него, ще причини силен стрес и загуба на терапевтичните ползи за пациента. Принципът за справедливост е фокусиран върху достъпността на новата технология и върху проблема кой ще носи отговорност при настъпили вреди. Не всички възрастни пациенти ще могат да си позволят да ползват услугите на робот социален асистент. Разлика във функциите на тези роботи определя и цената им, а последната е от значение за здравните системи, тъй като те инвестират в нови технологии по различен начин (Vandemeulebroucke, et al., 2018).
Изкуствен интелект и вземане на решение
Един от големите пробиви в ИИ, с пряко въздействие върху проблема за доверието, е разработването на алгоритъм за предвиждане на предпочитанията на пациенти, които не са в състояние да вземат решение за себе си (некомпетентни пациенти) поради това, че са в безсъзнание.
Ситуацията на заместващо решение – близките на пациент или законен представител да вземат решение за последващо клинично действие вместо пациента, тъй като последният е в безсъзнание – е сериозно предизвикателство. Близките трябва да направят избор, като пречупят информацията за последващото клинично действие през ценностите и разбиранията на понастоящем некомпетентния пациент. Това не е лесна задача, тъй като често пъти ценностите на пациента не могат да бъдат идентифицирани от близките му и е почти невъзможно да бъдат идентифицирани от медицинския специалист. Това предизвикателство може да бъде преодоляно чрез попълване на документ предварително изявена воля, в който пациентът може да изрази своето желание, докато все още е автономен, какво иска или не иска да се случва с него; кой да взема решение вместо него. Въпреки това тези желания се нуждаят от интерпретация. Въвеждането на ИИ в процеса на вземане на решение за последващо клинично действие ще снеме това нелеко емоционално тегло от раменете на специалистите и близките на пациента, като по този начин ще намали значително трудностите, породени от идентифицирането и интерпретацията на ценностите на пациента.
Интегрирането на ИИ се предлага да стане през “споделеното вземане на решение”. Близките на пациента и специалистите заедно взимат решение за последващото клинично действие. Това позволява на близките на пациента да са активни участници, да бъдат запознати на достъпен език от специалист и едновременно с това да защитят най-добрия интерес на пациента (Rid and Wendler, 2014). Изкуственият интелект ще трябва да разполага с една голяма социо-демографска база данни (възраст, пол, образование, религиозно вероизповедание), текущо физическо, психологическо и социално функциониране (напр. възприемано качество на живот, социална подкрепа), нагласи и ценности (напр. ценени житейски дейности) и релевантен личен опит (напр. с медицински грижи или недееспособни пациенти). Изкуственият интелект също така ще може да работи и с данни за това как хората се отнасят към често срещани етически дилеми по отношение на грижите за некомпетентен пациент (Rid and Wendler, 2014).
Въпреки че вземането на решение е сведено до статистическа обработка на данни, Rid и Wendler успяват да набележат важни предимства на ИИ, използван за предвиждане на решенията на пациента. Предвижданията на ИИ могат да спомогнат за справяне с предразсъдъците на близките относно най-добрия курс на лечение. Намаляват се стресът и напрежението у близките при опит да се отгатнат предпочитанията на пациента. Да се знае какво би желал пациентът би намалило конфликта в семейството, както и конфликта между семейството и специалистите. Предвиждането на решенията на пациента е израз на уважение към това какво решение той би искал да се вземе за него, а именно решение, което зачита неговите предпочитания и ценности (Rid and Wendler, 2014). Въпреки тези сериозни предимства идеята намира противници, които акцентират върху факта, че не машината, а семейството би следвало да взема решенията за последващото клинично действие (Jardas, Wasserman and Wendler, 2022).
Тези противници посочват, че причината, която ще превърне пациента в некомпетентен (неможещ да взема решения за себе си), влияе толкова силно върху психиката на индивида, че последният вече е друг човек (Dresser, 1986). Следователно, специалистите не могат да се доверят на стандартните социо-демографски данни, тъй като “новият” индивид може да не отговаря на тях, нито на собствените си последно изразени предпочитания. Последната идея често е застъпвана от позицията на това, че хората променят предпочитанията си с времето.
Друга важна критика, която заслужава внимание, засяга въпроса от кого ще се събира социо-демографската информация. Тя се набира от здрави индивиди. Здравите индивиди често пъти нямат адекватна преценка за това какво би било тяхното качество на живот, когато са болни или в безсъзнание. Поради това те дават по-ниска оценка на здравното състояние при дадена болест, отколкото биха дали хората, които са изживели тази болест (Ubel, Loewenstein, and Jepson, 2003). Това изпраща негативно послание спрямо хората с увреждания. Техните социо-демографски характеристики не биха били отразени в базата данни, с които ще работи ИИ. Този проблем е валиден и в обратна посока. Ако базата данни е изградена от данните на хора с увреждания, те ще налагат своите ценности върху здравите индивиди (Rid and Wendler, 2014).
Неяснотата откъде да се набира нужната база данни води със себе си проблема за стереотипизацията на хората. Човешките същества споделят много общи физиологични и характерови черти. Въпреки това отделната личност запазва своята уникалност. Предвиждането на предпочитанията на пациента чрез ИИ, базиран на социо-демографски данни, е редукционистки подход спрямо пациентите. В последните години медицината се стреми към обратното – холистичен подход към пациентите. Вземането на решение за последващо клинично действие въз основа на стереотипи за пациентите е несъвместимо с холистичния подход. Нещо повече, ако сведем предвижданията на предпочитанията на пациентите до социо-демографски данни и стереотипи, това ще е в разрез с уважението на автономността на отделния пациент, което би изисквало последният да може да избира свободно или да му бъдат предоставени условия за осъществяване на свободен избор. (Jardas, Wasserman and Wendler, 2022).
Изкуствен интелект и автоматизация.
Въпреки че на индивидуално ниво ИИ създава сериозни препятствия за специалистите и пациентите, на ниво болница се наблюдават постижения. В действителността на ИИ на всеки медицински специалист съответства негов дигитален двойник (напр. дигитален онколог, патолог) и в този двойник може да се вгради ИИ. Floares посочва, че ако разглеждаме болницата като организация със собствена екосистема, в която работният процес е дигитализиран с вграден ИИ, ние преминаваме към т. нар. Smart Distributed Hospital. Парадигмата на Smart Distributed Hospital предоставя възможността за по-добра грижа за пациентите: навременна и бърза диагноза, персонализирана терапия, намаляване на разходите (Floares, 2021). Изкуственият интелект ще има възможността да прегледа стотици наръчници за стандарти за добра медицинска практика и ще може да асистира на специалиста по всяко време с предложения относно това кое действие ще е най-доброто действие в дадена ситуация от гледна точка на правилата за добра медицинска практика. По този начин според Floares специалистът ще може да отдели повече време за пациента на чисто човешко ниво, а цялостното проследяване на изследванията ще се извършва от ИИ. Тъй като тази система ще дава само препоръки, медицинският специалист ще успее да запази своята професионална автономност и свобода на решенията, тоест няма да следва сляпо определени инструкции.
Заключение
Изкуственият интелект е вече част от живота ни и тепърва предстои да берем плодовете от него в различните сфери на нашия живот. Това, което може да изведем като важна препоръка, е да се опитаме да балансираме доверието и скептицизма спрямо ИИ, за да може да има един умерен ход на развитие.
БЕЛЕЖКИ
[1] Онлайн речник. http://www.onlinerechnik.com/duma/%D0%B4%D0%BE%D0%B2%D0%B5%D1%80%D0%B8%D0%B5 (последно влизане 15.09.2022)
[2] Schwab K. The Fourth Industrial Revolution: what it means and how to respond. World Economic Forum. 2016 [последно влизане 10.10.2022]. https://www.weforum.org/agenda/2016/01/the-fourth-industrial-revolution-what-it-means-and-how-to-respond/
[3] Social Sciences and Humanities Research Council 14. Canada-UK Artificial Intelligence Initiative. 2020. https://www.sshrc-crsh.gc.ca/funding-financement/programs-programmes/canada-uk_ai/index-eng.aspx. [последно влизане 10.10.2022]
[4] Canadian Institute for Advanced Research 15. Canada, France, UK launch research workshops exploring societal implications of Artificial intelligence. 2019. https://www.cifar.ca/cifarnews/2019/04/15/canada-france-uk-launch-research-workshops-exploring-societal-implications-of-artificial-intelligence. [последно влизане 10.10.2022]
[5] Canadian Institute for Advanced Research 17. AI & Society. CIFAR. https://www.cifar.ca/ai/ai-society.
[6] Wellcome Trust. The ethical, social and political challenges of using artificial intelligence in healthcare|Wellcome. https://cms.wellcome.org/sites/default/files/ai-in-health-ethical-social-political-challenges.pdf [последно влизане 11.10.2022]
[7] Chan M. Opening remarks at the artificial intelligence for good global summit. World Health Organization. 2017. https://www.who.int/director-general/speeches/detail/opening-remarks-at-the-artificial-intelligence-for-good-global-summit
[8] Виж (Adler, J. 1994), (Hieronymi, P., 2008), (Keren, A. 2014), (McMyler, B. 2011).
ЛИТЕРАТУРА
Остин, Дж. (1996). Как с думи се вършат неща. София, Критика и хуманизъм.
Александрова-Янкуловска, С. (2016). Ръководство за практически упражнения по биоетика. Плевен, Издателски Център МУ – Плевен.
Vandemeulebroucke, T., de Casterlé, B. D., Gastmans, C. (2018). The use of care robots in aged care: A systematic review of argument-based ethics literature. – In: Archives of gerontology and geriatrics, (74), 15-25.
Ubel, P., Loewenstein, G., Jepson, C. (2003). Whose quality of life? A commentary exploring discrepancies between health state evaluations of patients and the general public. – In: Quality of Life Research (12), 599–607.
Rid, A., Wendler, D. (2014). Use of a Patient Preference Predictor to Help Make Medical Decisions for Incapacitated Patients. – In: Journal of Medicine and Philosophy, (39), 104–129. doi:10.1093/jmp/jhu001
Murphy, K., Di Ruggiero, E., Upshur, R., Willison, D. J., Malhotra, N., Cai, J. C., Malhotra, N. Lui, V. Gibson, J. (2021). Artificial intelligence for good health: a scoping review of the ethics literature. – In: BMC medical ethics, 22(1), 1-17.
McMyler, B. (2011). Testimony, Trust, and Authority. Oxford University Press USA.
Keren, A. (2014). Trust and Belief: A Preemptive Reasons Account. – In: Synthese 191 (12), 2593–2615.
Jardas, E. J., Wasserman, D., & Wendler, D. (2022). Autonomy-based criticisms of the patient preference predictor. – In: Journal of Medical Ethics, 48(5), 304-310.
Horsburgh, H. J. N. (1960). The ethics of trust. – In: The Philosophical Quarterly (1950-), 10(41), 343-354.
Hieronymi, P. (2008). The Reasons of Trust. – In: Australasian Journal of Philosophy, 86 (2), 213–36. https://doi.org/10.1080/00048400801886496.
Hawley, K. (2014). Trust, distrust and commitment. – In: Noûs, 48(1), 1-20.
Floares, A.G. (2021). Artificial Intelligence in Oncology. In: The “Good Algorithm? Artificial Intelligence: Ethics, Law, Health. XXVI General Assembly of Memrbers, Vatican City, 117 – 122.
Dresser, R. (1986). Life, death, and incompetent patients: Conceptual infirmities and hidden values in the law. – In: Arizona Law Review (28), 373 – 405.
Carter, J. Adam., Simion, M. (2020). The Ethics and Epistemology of Trust. – In: The Internet Encyclopedia of Philosophy, ISSN 2161-0002, https://iep.utm.edu/. Available at: https://iep.utm.edu/trust/#H1. [Accessed 15.09.2022]
Brink, D. (2022). Mill’s Moral and Political Philosophy. – In: The Stanford Encyclopedia of Philosophy (Fall 2022 Edition), Edward N. Zalta & Uri Nodelman (eds.), URL = <https://plato.stanford.edu/archives/fall2022/entries/mill-moral-political/>.
Baier, A. (1986). Trust and Antitrust. – In: Ethics 96 (2), 231–260. https://doi.org/10.1086/292745.
Adler, J. E. (1994). Testimony, Trust, Knowing. – In: The Journal of Philosophy 91 (5), 264–275.