Sztuczna inteligencja (AI) w medycynie

Darmowe narzędzia AI mogą wspierać lekarzy w analizie badań obrazowych – bezpiecznie i bez wysokich kosztów

Darmowe modele AI kontra GPT-4: jak wypadły w analizie USG tarczycy?

Nowe badanie przeprowadzone na Uniwersytecie Kolorado w kampusie Anschutz pokazuje, że darmowe, otwartoźródłowe narzędzia sztucznej inteligencji (AI) mogą skutecznie wspierać lekarzy w analizie badań obrazowych, dorównując pod względem jakości drogim systemom komercyjnym – bez narażania prywatności pacjentów.

Praca została opublikowana w czasopiśmie npj Digital Medicine.

Badacze podkreślają, że dostępne bezpłatnie i możliwe do uruchomienia lokalnie modele AI stanowią obiecującą i oszczędną alternatywę dla popularnych narzędzi takich jak ChatGPT, które bywają kosztowne i często wymagają przesyłania wrażliwych danych na zewnętrzne serwery.

– To ogromny krok naprzód dla placówek ochrony zdrowia i pacjentów – powiedziała dr Aakriti Pandita, główna autorka badania i adiunktka medycyny szpitalnej na Uniwersytecie Kolorado. – Udowodniliśmy, że szpitale nie muszą inwestować w drogie i potencjalnie ryzykowne dla prywatności systemy AI, aby uzyskać dokładne wyniki.

W praktyce klinicznej lekarze często dyktują lub piszą swobodne opisy badań obrazowych, takich jak USG. Chociaż stanowią one cenne źródło informacji, to nie zawsze są wystarczająco ustrukturyzowane na potrzeby monitorowania wyników leczenia, analizy trendów czy badań naukowych. Narzędzia AI coraz częściej wykorzystywane są do automatyzacji tego procesu.

Wielu zaawansowanych komercyjnych rozwiązań AI, takich jak GPT-4 od OpenAI, nie można jednak bezpiecznie zastosować w ochronie zdrowia – ich użycie wiąże się bowiem z koniecznością przesyłania danych pacjenta poza wewnętrzne systemy szpitalne, co może naruszać przepisy o ochronie danych.

W opublikowanym badaniu wykazano, że darmowe modele AI, które mogą być uruchamiane wewnątrz zabezpieczonej infrastruktury szpitalnej, dorównują, a czasami przewyższają jakością systemy komercyjne.

Zespół badaczy skoncentrował się na konkretnym problemie klinicznym – guzkach tarczycy, często wykrywanych podczas badania USG. Lekarze oceniają ich potencjalną złośliwość przy pomocy systemu ACR TI-RADS.

Aby wyszkolić modele AI bez wykorzystania prawdziwych danych pacjentów, naukowcy wygenerowali 3000 „syntetycznych” opisów radiologicznych, odzwierciedlających język kliniczny stosowany w praktyce, ale pozbawionych wrażliwych danych. Na ich podstawie przeszkolono sześć darmowych modeli AI.

Modele te następnie przetestowano na 50 rzeczywistych raportach z publicznej bazy danych, porównując ich skuteczność z modelami komercyjnymi takimi jak GPT-3.5 i GPT-4. Jeden z modeli open-source, Yi-34B, osiągnął wyniki porównywalne z GPT-4, jeśli wcześniej przedstawiono mu kilka przykładów do nauki. Nawet mniejsze modele, które można uruchomić na standardowych komputerach, przewyższały GPT-3.5 w niektórych testach.

– Komercyjne narzędzia mają ogromny potencjał, ale często nie nadają się do zastosowań w szpitalach – tłumaczy dr Nikhil Madhuripan, współautor badania i kierownik sekcji radiologii jamy brzusznej na Uniwersytecie Kolorado. – Są kosztowne, a ich użycie zwykle oznacza przesyłanie danych pacjentów do zewnętrznych serwerów, co rodzi poważne obawy dotyczące prywatności.

W przeciwieństwie do tego, narzędzia open-source mogą działać w całości w ramach zabezpieczonych szpitalnych systemów informatycznych, bez konieczności inwestowania w drogie klastry GPU i bez opuszczania przez dane budynku.

Badanie potwierdza również, że dane syntetyczne mogą być skutecznym i bezpiecznym rozwiązaniem przy ograniczonym dostępie do rzeczywistych danych medycznych. Otwiera to drogę do opracowywania przystępnych cenowo, dostosowanych do lokalnych potrzeb systemów AI w różnych obszarach medycyny.

Zespół badawczy ma nadzieję, że podejście to znajdzie zastosowanie także poza radiologią. W przyszłości podobne narzędzia mogą wspierać lekarzy w analizie opisów tomografii komputerowej, porządkowaniu dokumentacji medycznej czy monitorowaniu przebiegu chorób.

– Nie chodzi tylko o oszczędność czasu – podkreśla dr Pandita. – Chodzi o stworzenie narzędzi AI, które naprawdę można stosować w codziennej praktyce klinicznej, bez nadwyrężania budżetu i bez ryzyka dla prywatności pacjentów.

Źródło: npj Digital Medicine, Free, open-source large language models can perform clinical information extraction from radiology reports without compromising patient privacy
DOI: https://doi.org/10.1038/s41746-025-01658-3

Tygodnik Medyczny

Zdrowie, system ochrony zdrowia, opieka farmaceutyczna, farmacja, polityka lekowa, żywienie, służba zdrowia - portal medyczny

Najnowsze artykuły

Back to top button