Nowe narzędzie AI skanuje media społecznościowe w poszukiwaniu ukrytych zagrożeń zdrowotnych
Sztuczna inteligencja w służbie bezpieczeństwa
Nowe narzędzie sztucznej inteligencji potrafi analizować dane z mediów społecznościowych w celu wykrywania zdarzeń niepożądanych związanych z produktami zdrowotnymi dla konsumentów – wynika z badania opublikowanego 30 września w czasopiśmie PLOS Digital Health przez Johna Ayersa z University of California w San Diego (USA) i współpracowników.
Stały monitoring bezpieczeństwa produktów zdrowotnych na rynku jest kluczowy dla zdrowia publicznego. Obecne systemy raportowania zdarzeń niepożądanych dotyczących leków na receptę czy wyrobów medycznych opierają się głównie na dobrowolnych zgłoszeniach lekarzy i producentów do FDA (U.S. Food and Drug Administration). Dynamiczny rozwój rynku produktów konsumenckich, takich jak preparaty na bazie konopi czy suplementy diety, sprawił, że potrzebne są nowe systemy identyfikowania zagrożeń.
W nowym badaniu naukowcy przetestowali skuteczność automatycznego narzędzia opartego na uczeniu maszynowym – „Waldo” – które analizuje treści z mediów społecznościowych i wychwytuje opisy zdarzeń niepożądanych. Narzędzie zostało sprawdzone na przykładzie postów z Reddita dotyczących produktów konopnych.
W porównaniu z ręcznymi adnotacjami ekspertów Waldo osiągnął dokładność na poziomie 99,7%, znacznie przewyższając uniwersalnego chatbota ChatGPT poddanego temu samemu testowi. W szerszym zbiorze 437 132 postów Waldo zidentyfikował 28 832 potencjalne przypadki szkody. Podczas ręcznej weryfikacji losowej próbki aż 86% okazało się prawdziwymi zdarzeniami niepożądanymi. Co istotne, narzędzie udostępniono jako open source, aby mogli z niego korzystać badacze, klinicyści i regulatorzy.
Autorzy podkreślają, że Waldo stanowi istotny krok w rozwoju metod wykrywania zdarzeń niepożądanych w mediach społecznościowych, a jego potencjał wykracza poza produkty konopne – może być stosowany również do innych produktów zdrowotnych, które nie podlegają ścisłemu nadzorowi regulacyjnemu.
Główny autor Karan Desai zaznacza: „Waldo pokazuje, że doświadczenia zdrowotne, które ludzie opisują w internecie, to nie tylko szum informacyjny – to wartościowe sygnały bezpieczeństwa. Dzięki ich uchwyceniu możemy ujawniać realne szkody, niewidoczne w tradycyjnych systemach raportowania”.
John Ayers dodaje: „To przedsięwzięcie pokazuje, jak narzędzia cyfrowe mogą zmienić nadzór porejestracyjny. Uczynienie Waldo projektem open source daje możliwość ochrony pacjentów każdemu – od regulatorów po klinicystów”.
Współautor Vijay Tiyyala podkreśla: „Z technicznego punktu widzenia pokazaliśmy, że odpowiednio wytrenowany model, może przewyższyć najbardziej zaawansowane chatboty w wykrywaniu zdarzeń niepożądanych. Dokładność Waldo była zaskakująca i bardzo obiecująca”.
Zespół ma nadzieję, że dzięki otwartemu dostępowi do Waldo uda się przyspieszyć rozwój otwartej nauki i poprawić bezpieczeństwo pacjentów.
Źródło: PLOS Digital Health, Waldo: Automated discovery of adverse events from unstructured self reports
DOI: 10.1371/journal.pdig.0001011




