Czy używasz chatbotów AI, takich jak ChatGPT, aby odpowiadać na pytania dotyczące leków? Jeśli tak, być może zechcesz przeczytać dalej.
Badania opublikowane niedawno przez farmaceutów z Uniwersytetu w Long Island pokazują, że chatbot oparty na sztucznej inteligencji (zwany „ChatGPT”) nie zapewnia zadowalających odpowiedzi na około trzy czwarte zapytań związanych z lekami.
Badania pokazują, że Chatbot Chat Genius Pharmacy (lub po prostu ChatGPT) nie odpowiada na 75 procent zapytań związanych z lekami. Tak wynika z niedawnego badania przeprowadzonego przez farmaceutów z Long Island University.
Spośród pytań, na które chatbot zawiódł, tylko na 25 proc. chatbot odpowiedział poprawnie, zaś 65 proc. otrzymało odpowiedzi tak błędne, że nawet na nie nie zasługują.
Badania ujawniają nieadekwatność ChatGPT w zakresie zapytań związanych z lekami
Niedawne badanie przeprowadzone przez farmaceutów na Uniwersytecie Long Island dało ChatGPT najlepszy test na receptę. Spośród 39 pytań związanych z narkotykami zadanych temu znającemu się na popkulturze chatbotowi zaledwie 10 odpowiedzi uznano za „zadowalające”. Pozostałe 29 odpowiedzi nie do końca trafiło w sedno. Albo ominęli pytanie, podali niedokładne informacje, albo byli po prostu niekompletni.
Nie przeoczmy potencjalnie szkodliwych porad czających się w bazie danych ChatGPT. W badaniu zwrócono uwagę na rażący przypadek, w którym chatbota AI zapytano o interakcję leku między lekiem przeciwwirusowym na Covid-19 Paxlovid a lekiem obniżającym ciśnienie krwi werapamilem.< /span>
Ponieważ odpowiedź chatbota twierdziła, że nie zgłoszono żadnych interakcji między tymi lekami.
Leki te faktycznie mogą wchodzić w interakcje, prowadząc do niebezpiecznego spadku ciśnienia krwi. W przypadku braku tak kluczowych informacji niczego niepodejrzewający użytkownicy mogą paść ofiarą skutków ubocznych, którym można zapobiec.
Uczenie się na błędach chatbotów AI
W obronie ChatGPT OpenAI, mózg bota, wyjaśnił, że ich modele nie są specjalnie zaprojektowane do udzielania porad medycznych. To w porządku, ale może nadszedł czas, aby chatbot AI podniósł poziom wiedzy w zakresie opieki zdrowotnej spraw.
Najlepiej będzie, jeśli w przypadku pytań medycznych zwrócimy się do prawdziwych pracowników służby zdrowia, zamiast pokładać nadzieję w świecie wirtualnym.
I tu zaczyna się dobra wiadomość – badanie wykazało, że spośród 39 odpowiedzi otrzymanych od chatbotów AI tylko osiem zawierało odniesienia do celów weryfikacji. Żadne z tych odniesień nie było prawdziwe. Mądrym wyborem jest dokładne sprawdzenie przekazywanych informacji, szczególnie jeśli dotyczą one naszego samopoczucia.
Zasady użytkowania OpenAI jasno pokazują, że poleganie wyłącznie na ich technologii w zakresie informacji medycznych jest zdecydowanie niestosowne. Wyraźnie stwierdzają, że ich modele nie są dostosowane do diagnozowania lub leczenia poważnych schorzeń. Nadszedł czas, aby wywiesić znak „zachowuj ostrożność” i skonsultować się ze specjalistami w sprawie wszystkich naszych potrzeb medycznych.
Pomimo wpadki związanej z lekami chatboty AI zyskały sporą sławę w innych dziedzinach. Na egzaminie z położnictwa i ginekologii chatbot uzyskał lepsze wyniki od ludzkich kandydatów, wykazując się wiedzą specjalistyczną, a nawet wyróżniając się w takich obszarach jak empatia.
W rzeczywistości uzyskał imponującą średnią na egzaminie specjalistycznym, podczas gdy ludzie pozostali nieco w tyle. Nie dajmy się jednak ponieść tej historii sukcesu.
Jeśli chodzi o tak istotne kwestie, jak nasze zdrowie, niezwykle ważne jest poleganie na ekspertach i specjalistach w celu uzyskania dokładnych informacji. Potknięcia ChatGPT w obsłudze zapytań związanych z lekami dają obraz ostrzegawczy, przypominając nam, że świat wirtualny nie zawsze zastępuje porady medyczne w prawdziwym życiu.
Najlepiej zmienić się w zaufanego pracownika służby zdrowia i zachować popkulturowe umiejętności chatbotów AI na potrzeby lżejszych rozmów.
Dodaj komentarz