
Sztuczna inteligencja uznana za bardziej współczującą niż eksperci
AI może oferować spójne, wysokiej jakości odpowiedzi empatyczne, bez emocjonalnego obciążenia, jakie odczuwają ludzie
Z definicji sztuczna inteligencja nie może odczuwać empatii – wymaga to możliwości odniesienia się do ludzkiego doświadczenia innej osoby, postawienia się w jej sytuacji.
Jednak według nowych badań przeprowadzonych na Uniwersytecie Toronto w kampusie Scarborough (U of T Scarborough), sztuczna inteligencja (AI) potrafi generować empatyczne odpowiedzi bardziej niezawodnie i konsekwentnie niż ludzie, nawet w porównaniu z profesjonalistami, których praca wymaga okazywania empatii osobom w potrzebie.
– AI się nie męczy – mówi Dariya Ovsyannikova (HBSc 2023 UTSC), kierowniczka laboratorium w zespole prof. Michaela Inzlichta na U of T Scarborough i główna autorka badania. – Może oferować spójne, wysokiej jakości odpowiedzi empatyczne, bez emocjonalnego obciążenia, jakie odczuwają ludzie.
Badanie opublikowane w czasopiśmie Communications Psychology analizowało, jak ludzie oceniają empatyczne odpowiedzi wygenerowane przez ChatGPT w porównaniu z odpowiedziami ludzi.
W czterech odrębnych eksperymentach uczestników poproszono o ocenę poziomu współczucia (kluczowego elementu empatii) w pisemnych odpowiedziach na serię pozytywnych i negatywnych scenariuszy stworzonych zarówno przez AI, jak i zwykłych ludzi oraz ekspertów w reagowaniu kryzysowym. W każdym scenariuszu odpowiedzi AI były preferowane i oceniane jako bardziej współczujące i responsywne — wyrażające większą troskę, zrozumienie i walidację w porównaniu z odpowiedziami ludzkimi.

Dlaczego AI może przewyższać ludzi w empatii?
Jak zauważa Ovsyannikova, AI potrafi dostrzegać drobne szczegóły i pozostawać obiektywna, co czyni ją szczególnie skuteczną w tworzeniu uważnej komunikacji, która wydaje się empatyczna.
Empatia jest ważną cechą nie tylko w budowaniu więzi społecznych, ale także w pomaganiu ludziom w regulacji emocji i poczuciu zrozumienia. W kontekstach klinicznych odgrywa kluczową rolę w redukcji izolacji emocjonalnej i wspieraniu pacjentów w trudnych chwilach.
Jednak ciągłe wyrażanie empatii wiąże się z kosztami. – Opiekunowie mogą doświadczać zmęczenia współczuciem – podkreśla Ovsyannikova, która sama ma doświadczenie zawodowe jako wolontariuszka na linii kryzysowej.
Dodaje, że profesjonaliści w dziedzinie zdrowia psychicznego często muszą ograniczać swoją zdolność do empatii, aby unikać wypalenia zawodowego lub skutecznie zarządzać emocjonalnym zaangażowaniem wobec różnych klientów. Ludzie mają też swoje własne uprzedzenia i są emocjonalnie podatni na szczególnie trudne lub złożone przypadki, co może wpływać na ich zdolność do empatii.
Wyważone podejście do wykorzystania AI
Michael Inzlicht, współautor badania i promotor doktorantki Victorii Oldemburgo de Mello, zwraca uwagę, że choć AI może być cennym narzędziem wspierającym ludzką empatię, niesie też potencjalne zagrożenia.
– AI może skutecznie dostarczać powierzchowne współczucie, które ludzie mogą uznać za natychmiastowo użyteczne, ale nie jest w stanie zaoferować głębszej, bardziej znaczącej opieki, która dotrze do źródła problemu zdrowotnego – mówi.
Inzlicht dodaje, że nadmierne poleganie na AI rodzi również problemy etyczne, takie jak możliwość manipulacji osobami potrzebującymi opieki. Na przykład ktoś odczuwający samotność może uzależnić się od rozmów z chatbotem AI, zamiast budować prawdziwe relacje międzyludzkie.
– Jeśli AI stanie się preferowanym źródłem empatii, ludzie mogą wycofywać się z interakcji międzyludzkich, co pogłębi problemy, które staramy się rozwiązać, takie jak samotność i izolacja społeczna – ostrzega Inzlicht.
Kolejnym problemem jest zjawisko znane jako „awersja do AI”, czyli sceptycyzm wobec zdolności AI do prawdziwego zrozumienia ludzkich emocji. W badaniu uczestnicy początkowo wysoko oceniali odpowiedzi wygenerowane przez AI, gdy nie wiedzieli, kto je napisał, ale ich preferencje zmieniały się, gdy dowiadywali się, że pochodzą od AI. Jednak uprzedzenia te mogą zanikać z czasem, zwłaszcza wśród młodszych osób, które dorastały w kontakcie z technologią AI.
Podsumowanie
Pomimo rosnącego zapotrzebowania na empatię, Inzlicht podkreśla konieczność transparentnego i zrównoważonego podejścia do wdrażania AI. – AI może wypełniać luki, ale nigdy nie powinno całkowicie zastępować ludzkiego dotyku – podsumowuje.
Źródło: Communications Psychology, University of Toronto Scarborough, fot. Adobe
DOI: 10.1038/s44271-024-00182-6