Uit onderzoek blijkt dat ChatGPT er niet in slaagt 75% van de medicatiegerelateerde vragen te beantwoorden

Maakt u gebruik van AI-chatbots zoals ChatGPT om vragen over medicijnen te beantwoorden? Als dat zo is, wil je misschien verder lezen.

Uit onderzoek dat onlangs is gepubliceerd door apothekers van de Long Island University blijkt dat een AI-chatbot (genaamd “ChatGPT”) er niet in slaagt bevredigende antwoorden te geven op ongeveer drie op de vier medicatiegerelateerde vragen.

Uit onderzoek blijkt dat de Chat Genius Apotheek Chatbot (of gewoon ChatGPT) er niet in slaagt 75 procent van de medicatiegerelateerde vragen te beantwoorden. Dit blijkt uit een recent onderzoek van apothekers van de Long Island University.

Van de vragen waarbij de chatbot faalde, werd slechts 25 procent correct beantwoord door de chatbot, terwijl 65 procent zulke foute antwoorden kreeg dat ze niet eens een antwoord verdienen.

Uit onderzoek blijkt dat ChatGPT ontoereikend is op het gebied van medicatiegerelateerde vragen

Kan geen nauwkeurige antwoorden geven (Afbeelding via Unsplash/Jonathan Kemper)
Kan geen nauwkeurige antwoorden geven (Afbeelding via Unsplash/Jonathan Kemper)

Een recent onderzoek uitgevoerd door apothekers van de Long Island University gaf ChatGPT de ultieme recepttest. Van de 39 drugsgerelateerde vragen die op deze popcultuurbewuste chatbot werden afgevuurd, werden slechts tien antwoorden als ‘bevredigend’ beschouwd. De overige 29 antwoorden waren niet helemaal raak. Ze dansten om de vraag heen, gaven onnauwkeurige informatie of waren gewoonweg onvolledig.

Laten we de potentieel schadelijke adviezen die in de database van ChatGPT op de loer liggen niet over het hoofd zien. Het onderzoek bracht een in het oog springend geval aan het licht waarin een AI-chatbot werd gevraagd naar een geneesmiddelinteractie tussen het COVID-19-antivirale middel Paxlovid en het bloeddrukverlagende medicijn verapamil.< /span>

Omdat de reactie van de chatbot beweerde dat er geen interacties tussen deze medicijnen waren gerapporteerd.

Potentieel risico bij het gebruik van deze tol (Afbeelding via Unsplash/Jonathan Kemper)
Potentieel risico bij het gebruik van deze tol (Afbeelding via Unsplash/Jonathan Kemper)

Deze medicijnen kunnen daadwerkelijk op elkaar inwerken, wat leidt tot een gevaarlijke daling van de bloeddruk. Als dergelijke cruciale informatie ontbreekt, kunnen nietsvermoedende gebruikers het slachtoffer worden van vermijdbare bijwerkingen.

Leren van fouten in AI-chatbots

Het is belangrijk om deze tools zorgvuldig te gebruiken (Afbeelding via Unsplash/Ilgmyzin)
Het is belangrijk om deze tools zorgvuldig te gebruiken (Afbeelding via Unsplash/Ilgmyzin)

Ter verdediging van ChatGPT heeft OpenAI, het brein achter de bot, duidelijk gemaakt dat hun modellen niet specifiek zijn ontworpen om medisch advies te geven. Eerlijk genoeg, maar misschien is het tijd voor AI-chatbot om zijn kennisspel te vergroten als het gaat om gezondheidszorg zaken.

Het is het beste als we echte zorgprofessionals raadplegen voor onze medische vragen, in plaats van ons vertrouwen te stellen in de virtuele wereld.

Nu komt het allerleukste: uit het onderzoek bleek dat van de 39 reacties van deze AI-chatbots er slechts acht referenties bevatten voor verificatiedoeleinden. Geen van deze verwijzingen was echt. Het is een verstandige keuze om de verstrekte informatie nog eens te controleren, vooral als het ons welzijn betreft.

Het gebruiksbeleid van OpenAI maakt glashelder dat het een grote no-go is om uitsluitend op hun technologie te vertrouwen voor medische informatie. Ze stellen expliciet dat hun modellen niet zijn afgestemd op de diagnose of behandeling van ernstige medische aandoeningen. Het is tijd om het bord ‘ga voorzichtig te werk’ op te hangen en de professionals te raadplegen voor al onze medische behoeften.

Het wordt niet aanbevolen om uitsluitend op technologie te vertrouwen (Afbeelding via Unsplash/Thriday)
Het wordt niet aanbevolen om uitsluitend op technologie te vertrouwen (Afbeelding via Unsplash/Thriday)

Ondanks het medicijnongeluk hebben AI-chatbots op andere gebieden behoorlijk wat bekendheid genoten. Bij een examen verloskunde en gynaecologie presteerde de chatbot beter dan menselijke kandidaten, waarbij hij blijk gaf van expertise en zelfs uitblonk op gebieden als empathie.

Het scoorde zelfs een indrukwekkend gemiddelde op het specialistenexamen, terwijl mensen iets achterbleven. Laten we ons echter niet te veel laten meeslepen door dit succesverhaal.

Als het gaat om vitale zaken zoals onze gezondheid, is het van cruciaal belang om te vertrouwen op experts en professionals voor nauwkeurige informatie. De struikelblokken van ChatGPT bij het afhandelen van medicatiegerelateerde vragen schetsen een waarschuwend beeld en herinneren ons eraan dat de virtuele wereld niet altijd een vervanging is voor medische begeleiding in het echte leven.

Het is het beste om vertrouwde professionals in de gezondheidszorg te worden en de popcultuurvaardigheden van deze AI-chatbots te behouden voor de lichtere gesprekken.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *