研究顯示 ChatGPT 無法滿足 75% 的藥物相關查詢

您是否使用 ChatGPT 等人工智慧聊天機器人來回答有關藥物的問題?如果是這樣,您可能想繼續閱讀。

長島大學藥劑師最近發表的研究表明,人工智慧聊天機器人(稱為「ChatGPT」)無法對大約四分之三的藥物相關查詢提供令人滿意的答案。

研究表明,Chat Genius 藥房聊天機器人(或簡稱 ChatGPT)無法滿足 75% 的藥物相關查詢。這是根據長島大學藥劑師最近的一項研究得出的結論。

在聊天機器人失敗的問題中,只有 25% 的問題得到了聊天機器人的正確回答,而 65% 的問題得到了錯誤的答案,甚至不值得回應。

研究顯示 ChatGPT 在藥物相關查詢方面存在不足

無法給出準確答案(圖片來自 Unsplash/Jonathan Kemper)
無法給出準確答案(圖片來自 Unsplash/Jonathan Kemper)

長島大學藥劑師最近進行的一項研究為 ChatGPT 提供了終極處方測試。在向這個精通流行文化的聊天機器人提出的 39 個與毒品相關的問題中,只有 10 個答案被認為是「令人滿意」。另外 29 個答案則不太切中要害。他們要么迴避問題,提供不準確的信息,要么根本不完整。

我們不要忽略隱藏在 ChatGPT 資料庫中的潛在有害建議。該研究強調了一個明顯的案例,其中人工智慧聊天機器人被問及COVID-19 抗病毒藥物Paxlovid 和血壓降血壓藥物維拉帕米之間的藥物交互作用。< /span>

由於聊天機器人的回應聲稱沒有這些藥物之間相互作用的報告。

使用此收費站的潛在風險(圖片來自 Unsplash/Jonathan Kemper)
使用此收費站的潛在風險(圖片來自 Unsplash/Jonathan Kemper)

這些藥物實際上可以相互作用,導致血壓危險下降。由於缺乏如此重要的訊息,毫無戒心的使用者可能會成為可預防的副作用的受害者。

從人工智慧聊天機器人的錯誤中學習

小心使用這些工具很重要(圖片來自 Unsplash/Ilgmyzin)
小心使用這些工具很重要(圖片來自 Unsplash/Ilgmyzin)

在 ChatGPT 的辯護中,機器人背後的大腦 OpenAI 澄清說,他們的模型並不是專門為提供醫療建議而設計的。這很公平,但也許現在是人工智慧聊天機器人在醫療保健問題上提高知識水平的時候了。

我們最好向真正的醫療保健專業人士諮詢我們的醫療問題,而不是相信虛擬世界。

關鍵是──研究發現,在這些人工智慧聊天機器人的 39 個回覆中,只有 8 個包含用於驗證目的的參考。這些參考文獻都不是真的。仔細檢查所提供的資訊是一個明智的選擇,尤其是當它關係到我們的福祉時。

OpenAI 的使用政策清楚地表明,僅僅依靠他們的技術來獲取醫療資訊是一個很大的禁忌。他們明確表示,他們的模型並未針對嚴重疾病的診斷或治療進行微調。是時候張貼「謹慎行事」的牌子,並就我們所有的醫療需求諮詢專業人士了。

不建議僅依賴技術(圖片來自 Unsplash/Thriday)
不建議僅依賴技術(圖片來自 Unsplash/Thriday)

儘管出現了藥物事故,人工智慧聊天機器人在其他領域也享有盛譽。在一次婦產科考試中,聊天機器人的表現超越了人類考生,展現了專業知識,甚至在同理心等領域表現出色。

事實上,它在專家考試中取得了令人印象深刻的平均分,而人類則稍微落後。然而,我們不要對這個成功故事太得意忘形。

當涉及到我們的健康等重大問題時,依賴專家和專業人士獲取準確的資訊至關重要。 ChatGPT 在處理藥物相關查詢方面的失誤描繪了一幅警示圖,提醒我們虛擬世界並不總是可以替代現實生活中的醫療指導。

最好成為值得信賴的醫療保健專業人員,並保留這些人工智慧聊天機器人的流行文化技能,以進行輕鬆的對話。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *