
AI a błędy medyczne: kto zapłaci cenę technologicznych pomyłek?
Technologie oparte na sztucznej inteligencji (AI) wspomagające pracę lekarzy mają ogromny potencjał transformacji opieki zdrowotnej, szczególnie w zakresie diagnostyki, zarządzania leczeniem i terapii pacjentów. Jednak obecny trend szybkiego wdrażania systemów wspierających opartych na sztucznej inteligencji może w rzeczywistości pogorszyć problemy związane z zapobieganiem błędom medycznym oraz zwiększyć ryzyko wypalenia zawodowego lekarzy – wynika z najnowszego opracowania opublikowanego w piątek na łamach czasopisma JAMA Health Forum.
Autorzy artykuł – badacze z Johns Hopkins Carey Business School, Johns Hopkins Medicine oraz McCombs School of Business przy Uniwersytecie Teksańskim w Austin – wskazują, że rosną oczekiwania wobec lekarzy, aby korzystali z systemów AI w celu minimalizowania błędów medycznych. Jednocześnie brakuje odpowiednich regulacji prawnych oraz jasno zdefiniowanych zasad odpowiedzialności w sytuacjach, gdy sztuczna inteligencja zawiedzie lub popełni błąd. W praktyce lekarze są stawiani przed nierealistycznym wymaganiem oceny, kiedy system AI należy zaufać, a kiedy należy jego wskazania odrzucić. Autorzy ostrzegają, że takie podejście znacząco zwiększa ryzyko stresu, wypalenia zawodowego oraz paradoksalnie – popełniania kolejnych błędów medycznych.
„Sztuczna inteligencja miała ułatwić pracę lekarzy, ale zamiast tego przerzuca na nich odpowiedzialność, zmuszając ich do bezbłędnej interpretacji technologii, której nawet jej twórcy nie są w stanie do końca wyjaśnić” – powiedziała Shefali Patil, wizytująca profesor w Carey Business School oraz profesor Uniwersytetu Teksańskiego McCombs School of Business. „Taka nierealistyczna presja wywołuje niepewność i bezpośrednio zagraża jakości opieki nad pacjentem”.
Według autorów raportu, odpowiedzialność prawna w kontekście medycznych błędów AI będzie w dużym stopniu zależeć od tego, kogo społeczeństwo uzna za winnego, gdy technologia zawiedzie. Lekarze mogą znaleźć się w szczególnie trudnej sytuacji, oczekuje się bowiem od nich kompetencji wykraczających poza możliwości realnej oceny i weryfikacji działania systemów opartych na sztucznej inteligencji.
W artykule zawarto również sugestie dla organizacji opieki zdrowotnej, które powinny przenieść akcent z indywidualnej odpowiedzialności lekarzy na odpowiedzialność organizacyjną oraz wspieranie procesu uczenia się całych zespołów. Takie podejście mogłoby złagodzić presję ciążącą na personelu medycznym oraz sprzyjać bardziej kolektywnemu i racjonalnemu wdrażaniu technologii AI.
„Oczekiwanie od lekarzy perfekcyjnego zrozumienia i stosowania AI w podejmowaniu decyzji klinicznych przypomina sytuację, w której piloci musieliby projektować swoje samoloty – jednocześnie je pilotując” – podkreślił Christopher Myers, profesor nadzwyczajny oraz dyrektor Center for Innovative Leadership na Johns Hopkins Carey Business School. „Aby sztuczna inteligencja wzmacniała lekarzy, a nie prowadziła ich do wyczerpania, organizacje ochrony zdrowia muszą stworzyć systemy wsparcia, które pomogą lekarzom prawidłowo oceniać, kiedy i jak korzystać z AI, aby nie musieli wciąż podważać narzędzi, którymi posługują się w procesie leczenia pacjentów”.
Źródło: JAMA Health Forum, University of Texas at Austin