연구에 따르면 ChatGPT는 약물 관련 문의의 75%를 충족하지 못하는 것으로 나타났습니다.

약물에 대한 질문에 답변하기 위해 ChatGPT와 같은 AI 챗봇을 사용하고 계십니까? 그렇다면 계속 읽어보시면 좋을 것 같습니다.

Long Island University의 약사가 최근 발표한 연구에 따르면 AI 챗봇(“ChatGPT”라고 함)이 약물 관련 질문 4개 중 약 3개에 대해 만족스러운 응답을 제공하지 못하는 것으로 나타났습니다.

연구에 따르면 Chat Genius Pharmacy Chatbot(또는 ChatGPT)은 약물 관련 문의의 75%를 충족하지 못하는 것으로 나타났습니다. 이것은 Long Island University의 약사들의 최근 연구에 따른 것입니다.

챗봇이 실패한 질문 중 챗봇이 정확하게 답변한 경우는 25%에 불과했고, 65%는 답변할 가치조차 없을 정도로 잘못된 답변을 받았습니다.

연구에 따르면 약물 관련 쿼리에서 ChatGPT가 부적절하다는 사실이 드러났습니다.

정확한 답변에 응답하지 못함(이미지 제공: Unsplash/Jonathan Kemper)
정확한 답변에 응답하지 못함(이미지 제공: Unsplash/Jonathan Kemper)

Long Island University의 약사가 실시한 최근 ​​연구에서는 ChatGPT에 최고의 처방 테스트를 제공했습니다. 대중문화에 정통한 이 챗봇에서 발생한 마약 관련 질문 39개 중 단 10개만이 “만족”으로 간주되었습니다. 나머지 29개 답변은 목표에 미치지 못했습니다. 그들은 질문 주위에서 춤을 추거나, 부정확한 정보를 제공했거나, 단순히 불완전했습니다.

ChatGPT 데이터베이스에 숨어 있는 잠재적으로 유해한 조언을 간과해서는 안 됩니다. 이 연구는 AI 챗봇이 코로나19 항바이러스제인 Paxlovid와 혈압강하제인 베라파밀< 사이의 약물 상호작용에 관해 질문을 받은 눈에 띄는 사례를 강조했습니다. /span>

챗봇의 응답에서는 이 약들 사이에 보고된 상호 작용이 없다고 주장했습니다.

이 통행료를 사용할 때 발생할 수 있는 잠재적 위험(이미지 제공: Unsplash/Jonathan Kemper)
이 통행료를 사용할 때 발생할 수 있는 잠재적 위험(이미지 제공: Unsplash/Jonathan Kemper)

이 약물들은 실제로 상호 작용하여 혈압을 위험하게 떨어뜨릴 수 있습니다. 이러한 중요한 정보가 누락되면 의심하지 않는 사용자가 예방 가능한 부작용의 희생양이 될 수 있습니다.

AI 챗봇 실수로부터 배우기

이러한 도구를 주의 깊게 사용하는 것이 중요합니다(Unsplash/Ilgmyzin을 통한 이미지).
이러한 도구를 주의 깊게 사용하는 것이 중요합니다(Unsplash/Ilgmyzin을 통한 이미지).

ChatGPT를 변호하면서 봇의 두뇌인 OpenAI는 자사 모델이 의학적 조언을 제공하기 위해 특별히 설계되지 않았다는 점을 분명히 했습니다. 충분히 그럴 만하지만, 이제 AI 챗봇이 의료문제에 관한 지식 게임을 끌어올릴 때입니다.

의학적 질문에 대해서는 가상 세계를 믿기보다는 실제 의료 전문가와 상담하는 것이 가장 좋습니다.

이제 중요한 점은 연구 결과에 따르면 이러한 AI 챗봇의 39개 응답 중 8개만이 확인 목적의 참고 자료가 포함되어 있는 것으로 나타났습니다. 그 언급 중 실제는 없었습니다. 제공된 정보를 다시 한 번 확인하는 것이 현명한 선택입니다. 특히 그것이 우리의 웰빙과 관련된 경우라면 더욱 그렇습니다.

OpenAI의 사용 정책은 의료 정보를 위해 OpenAI 기술에만 의존하는 것은 절대 금물이라는 점을 분명히 보여줍니다. 그들은 자신들의 모델이 심각한 질병의 진단이나 치료에 적합하지 않다고 명시적으로 밝혔습니다. 이제 ‘주의해서 진행하세요’ 표시를 세우고 모든 의학적 필요에 대해 전문가와 상담할 때입니다.

기술에만 의존하는 것은 권장되지 않습니다. (Unsplash/Thriday를 통한 이미지)
기술에만 의존하는 것은 권장되지 않습니다. (Unsplash/Thriday를 통한 이미지)

약물 사고에도 불구하고 AI 챗봇은 다른 분야에서 상당한 명성을 얻었습니다. 산부인과 시험에서 챗봇은 인간 지원자를 능가하여 전문성을 보여주고 공감과 같은 영역에서도 탁월한 성능을 보였습니다.

실제로 전문가 시험에서 인상적인 평균 점수를 얻었지만 인간은 약간 뒤처졌습니다. 하지만, 이 성공 스토리에 너무 집착하지 말자.

건강과 같은 중요한 문제에 관해서는 정확한 정보를 얻기 위해 전문가와 전문가에게 의존하는 것이 중요합니다. ChatGPT가 약물 관련 쿼리를 잘못 처리한 것은 가상 세계가 항상 실제 의료 안내를 대체할 수는 없다는 점을 상기시켜 주는 경고적인 그림을 그립니다.

신뢰할 수 있는 의료 전문가로 전환하고 보다 가벼운 대화를 위해 이러한 AI 챗봇 대중 문화 기술을 유지하는 것이 가장 좋습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다