Una investigación muestra que ChatGPT no satisface el 75% de las consultas relacionadas con medicamentos

Una investigación muestra que ChatGPT no satisface el 75% de las consultas relacionadas con medicamentos

¿Utiliza chatbots de IA como ChatGPT para responder preguntas sobre medicamentos? Si es así, quizás quieras seguir leyendo.

Una investigación publicada recientemente por farmacéuticos de la Universidad de Long Island revela que un chatbot de IA (llamado “ChatGPT”) no proporciona respuestas satisfactorias a aproximadamente tres de cada cuatro consultas relacionadas con medicamentos.

Las investigaciones muestran que el chatbot de farmacia Chat Genius (o simplemente ChatGPT) no satisface el 75 por ciento de las consultas relacionadas con medicamentos. Esto es según un estudio reciente realizado por farmacéuticos de la Universidad de Long Island.

Entre las preguntas en las que el chatbot falló, sólo el 25 por ciento fueron respondidas correctamente, mientras que el 65 por ciento recibió respuestas tan erróneas que ni siquiera merecen una respuesta.

La investigación revela la insuficiencia de ChatGPT en consultas relacionadas con medicamentos

No responde respuestas precisas (Imagen vía Unsplash/Jonathan Kemper)
No responde respuestas precisas (Imagen vía Unsplash/Jonathan Kemper)

Un estudio reciente realizado por farmacéuticos de la Universidad de Long Island otorgó a ChatGPT la prueba de prescripción definitiva. De las 39 preguntas relacionadas con las drogas formuladas a este chatbot conocedor de la cultura pop, sólo 10 de las respuestas se consideraron «satisfactorias». Las otras 29 respuestas no dieron en el blanco. O dieron vueltas alrededor de la pregunta, dieron información inexacta o simplemente estaban incompletos.

No pasemos por alto los consejos potencialmente dañinos que se esconden en la base de datos de ChatGPT. El estudio destacó un caso evidente en el que se preguntó a un chatbot de IA sobre una interacción farmacológica entre el antiviral Paxlovid para el COVID-19 y el medicamento para reducir la presión arterial verapamilo.< /span>

Dado que la respuesta del chatbot afirmó que no se informaron interacciones entre estos medicamentos.

Riesgo potencial de utilizar este peaje (Imagen vía Unsplash/ Jonathan Kemper)
Riesgo potencial de utilizar este peaje (Imagen vía Unsplash/ Jonathan Kemper)

De hecho, estos medicamentos pueden interactuar y provocar una caída peligrosa de la presión arterial. Al faltar información tan crucial, los usuarios desprevenidos podrían ser víctimas de efectos secundarios prevenibles.

Aprendiendo de los errores de los chatbots de IA

Es importante utilizar estas herramientas con cuidado (Imagen vía Unsplash/ Ilgmyzin)
Es importante utilizar estas herramientas con cuidado (Imagen vía Unsplash/ Ilgmyzin)

En defensa de ChatGPT, OpenAI, el cerebro detrás del bot, aclaró que sus modelos no están diseñados específicamente para brindar asesoramiento médico. Es cierto, pero tal vez sea hora de que el chatbot de IA aumente su conocimiento en lo que respecta a cuidado de la salud asuntos.

Es mejor si consultamos a profesionales sanitarios reales para nuestras consultas médicas, en lugar de confiar en el mundo virtual.

Ahora viene el truco: el estudio encontró que de las 39 respuestas de estos chatbots de IA, solo ocho incluían referencias con fines de verificación. Ninguna de esas referencias era real. Es una buena elección volver a verificar la información proporcionada, especialmente cuando se trata de nuestro bienestar.

Las políticas de uso de OpenAI dejan muy claro que depender únicamente de su tecnología para obtener información médica es un gran no-no. Afirman explícitamente que sus modelos no están adaptados para el diagnóstico o tratamiento de afecciones médicas graves. Es hora de poner el cartel de «proceder con precaución» y consultar a los profesionales todas nuestras necesidades médicas.

No se recomienda confiar únicamente en la tecnología (Imagen vía Unsplash/Thriday)
No se recomienda confiar únicamente en la tecnología (Imagen vía Unsplash/Thriday)

A pesar de su contratiempo con la medicación, los chatbots de IA han tenido bastante fama en otros campos. En un examen de obstetricia y ginecología, el chatbot superó a los candidatos humanos, mostrando experiencia e incluso sobresaliendo en áreas como la empatía.

De hecho, obtuvo una puntuación media impresionante en el examen de especialista, mientras que los humanos se quedaron ligeramente por detrás. Sin embargo, no nos dejemos llevar demasiado por esta historia de éxito.

Cuando se trata de cuestiones vitales como nuestra salud, es fundamental confiar en expertos y profesionales para obtener información precisa. El tropiezo de ChatGPT en el manejo de consultas relacionadas con medicamentos dibuja un panorama de advertencia, recordándonos que el mundo virtual no siempre es un sustituto de la orientación médica de la vida real.

Lo mejor es convertirse en profesionales de la salud de confianza y conservar las habilidades de la cultura pop de estos chatbots de IA para las conversaciones más ligeras.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *