La recherche montre que ChatGPT ne parvient pas à satisfaire 75 % des requêtes liées aux médicaments

Utilisez-vous des chatbots IA tels que ChatGPT pour répondre aux questions sur les médicaments ? Si tel est le cas, vous voudrez peut-être continuer à lire.

Une recherche récemment publiée par des pharmaciens de l’Université de Long Island révèle qu’un chatbot IA (appelé « ChatGPT ») ne parvient pas à fournir des réponses satisfaisantes à environ trois requêtes sur quatre liées aux médicaments.

La recherche montre que le chatbot Chat Genius Pharmacy (ou simplement ChatGPT) ne parvient pas à satisfaire 75 % des requêtes liées aux médicaments. C’est ce que révèle une étude récente menée par des pharmaciens de l’Université de Long Island.

Parmi les questions pour lesquelles le chatbot a échoué, le chatbot n’a répondu correctement qu’à 25 pour cent, tandis que 65 pour cent ont reçu des réponses si fausses qu’elles ne méritent même pas de réponse.

La recherche révèle l’insuffisance de ChatGPT dans les requêtes liées aux médicaments

Ne répond pas à des réponses précises (Image via Unsplash/Jonathan Kemper)
Ne répond pas à des réponses précises (Image via Unsplash/Jonathan Kemper)

Une étude récente menée par des pharmaciens de l’Université de Long Island a donné à ChatGPT le test de prescription ultime. Sur les 39 questions liées à la drogue posées à ce chatbot féru de culture pop, seules 10 des réponses ont été considérées comme « satisfaisantes ». Les 29 autres réponses n’ont pas tout à fait atteint le but. Soit ils tournaient autour de la question, soit ils donnaient des informations inexactes, soit ils étaient tout simplement incomplets.

Ne négligeons pas les conseils potentiellement dangereux qui se cachent dans la base de données de ChatGPT. L’étude a mis en évidence un cas flagrant où un chatbot IA a été interrogé sur une interaction médicamenteuse entre l’antiviral COVID-19 Paxlovid et le tension artérielle médicament réduisant le vérapamil.< /span>

Puisque la réponse du chatbot a affirmé qu’aucune interaction n’avait été signalée entre ces médicaments.

Risque potentiel lié à l'utilisation de ce péage (Image via Unsplash/ Jonathan Kemper)
Risque potentiel lié à l’utilisation de ce péage (Image via Unsplash/ Jonathan Kemper)

Ces médicaments peuvent en réalité interagir, entraînant une chute dangereuse de la tension artérielle. En l’absence d’informations aussi cruciales, les utilisateurs peu méfiants pourraient être victimes d’effets secondaires évitables.

Apprendre des erreurs des chatbots IA

Il est important d'utiliser ces outils avec précaution (Image via Unsplash/Ilgmyzin)
Il est important d’utiliser ces outils avec précaution (Image via Unsplash/Ilgmyzin)

Pour la défense de ChatGPT, OpenAI, le cerveau derrière le robot, a précisé que ses modèles ne sont pas spécifiquement conçus pour fournir des conseils médicaux. C’est assez juste, mais il est peut-être temps pour le chatbot IA d’améliorer ses connaissances en matière de soins de santé questions.

Il est préférable de consulter de vrais professionnels de la santé pour nos questions médicales, plutôt que de faire confiance au monde virtuel.

Voici maintenant le truc : l’étude a révélé que sur les 39 réponses de ces chatbots IA, seules huit incluaient des références à des fins de vérification. Aucune de ces références n’était réelle. C’est un choix judicieux de revérifier les informations fournies, surtout lorsqu’elles concernent notre bien-être.

Les politiques d’utilisation d’OpenAI indiquent clairement que s’appuyer uniquement sur leur technologie pour obtenir des informations médicales est un grand non-non. Ils déclarent explicitement que leurs modèles ne sont pas adaptés au diagnostic ou au traitement de problèmes médicaux graves. Il est temps de mettre en place le panneau « procéder avec prudence » et de consulter des professionnels pour tous nos besoins médicaux.

Il n'est pas recommandé de s'appuyer uniquement sur la technologie (Image via Unsplash/Thriday)
Il n’est pas recommandé de s’appuyer uniquement sur la technologie (Image via Unsplash/Thriday)

Malgré leur accident médicamenteux, les chatbots IA ont eu leur part de renommée dans d’autres domaines. Lors d’un examen d’obstétrique et de gynécologie, le chatbot a surpassé les candidats humains, démontrant son expertise et excellant même dans des domaines comme l’empathie.

En fait, il a obtenu une moyenne impressionnante à l’examen de spécialiste, alors que les humains étaient légèrement à la traîne. Ne nous laissons cependant pas trop emporter par cette success story.

Lorsqu’il s’agit de questions vitales comme notre santé, il est crucial de s’appuyer sur des experts et des professionnels pour obtenir des informations précises. Les difficultés de ChatGPT dans le traitement des requêtes liées aux médicaments dressent un tableau édifiant, nous rappelant que le monde virtuel ne remplace pas toujours les conseils médicaux réels.

Il est préférable de devenir des professionnels de la santé de confiance et de conserver les compétences de ces chatbots IA dans la culture pop pour les conversations plus légères.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *