Zdaniem naukowców prowadzenie „empatycznej” konwersacji z pacjentem to obszar, gdzie sztuczna inteligencja, czyli w tym wypadku algorytm generujący zdania, może się sprawdzić lepiej od samych lekarzy. Wykazały to najnowsze badania. Porady udzielane pacjentom przez ChatGPT często oceniane były jako bardziej „empatyczne” niż te, których udzielali lekarze – piszą naukowcy na łamach periodyku „JAMA Internal Medicine”.
Naukowcy porównywali pisemne odpowiedzi lekarzy na zapytania pacjentów z odpowiedziami udzielanymi przez ChatGPT. Odpowiedzi oceniane były przez panel ekspertów, profesjonalistów w zakresie służby zdrowia.
W 79 proc. przypadków preferowali oni odpowiedzi, których udzielał ChatGPT, uznając je za lepsze jakościowo i bardziej empatyczne – informuje zespół naukowców, który pracował pod kierunkiem Johna W. Ayersa z Qualcomm Institute przy University of California w San Diego (USA).
Naukowcy podjęli badania, chcąc przyjrzeć się możliwości wprzęgnięcia sztucznej inteligencji jako pomocnika lekarzy do kontaktów z pacjentami.
ChatGPT mógłby zdać egzamin z medycyny, ale bezpośrednie odpowiadanie na pytania pacjentów, w sposób dokładny i empatyczny, to osobna sprawa.
Naukowcy analizowali wpisy pacjentów i lekarzy na portalach medycznych, m.in. na amerykańskim portalu AskDocs. Następnie te same pytania zadali sztucznej inteligencji.
Eksperci, którzy oceniali posty, nie wiedzieli, które z nich napisali lekarze, a które wygenerował ChatGPT. Oceniali posty pod względem jakości informacji oraz empatii.
Okazało się, że na prawie 200 przypadków w 79 proc. pierwszeństwo przyznano sztucznej inteligencji.