調査によると、ChatGPT は医薬品関連のクエリの 75% を満たしていないことが示されています

ChatGPT などの AI チャットボットを使用して薬に関する質問に答えていますか?もしそうなら、読み進めてみてはいかがでしょうか。

ロングアイランド大学の薬剤師らが最近発表した研究では、AI チャットボット (「ChatGPT」と呼ばれる) が薬剤関連の質問の約 4 分の 3 に対して満足のいく応答を提供できないことが明らかになりました。

調査によると、Chat Genius Pharmacy チャットボット (または単に ChatGPT) は、医薬品関連のクエリの 75 パーセントを満たしていないことがわかっています。これはロングアイランド大学の薬剤師らによる最近の研究によるものです。

チャットボットが失敗した質問のうち、チャットボットが正しく回答できたのは 25 パーセントのみで、65 パーセントは回答に値しないほど間違った回答を受け取りました。

調査により、薬関連のクエリにおける ChatGPT の不十分さが明らかになりました

正確な回答に失敗する (Unsplash/Jonathan Kemper 経由の画像)
正確な回答に失敗する (Unsplash/Jonathan Kemper 経由の画像)

ロングアイランド大学の薬剤師によって行われた最近の研究では、ChatGPT による究極の処方検査が行われました。このポップ カルチャーに精通したチャットボットに投げかけられた 39 件の薬物関連の質問のうち、「満足」と思われた回答はわずか 10 件でした。残りの 29 件の回答は的を射ていませんでした。彼らは質問を無視したか、不正確な情報を提供したか、単に不完全でした。

ChatGPT のデータベースに潜んでいる潜在的に有害なアドバイスを見落とさないようにしましょう。この研究では、AI チャットボットが、新型コロナウイルス感染症 (COVID-19) 抗ウイルス薬パクスロビッドと血圧降下剤降下薬ベラパミルとの薬物相互作用について質問されたという明らかな事例が浮き彫りになった。 /span>

チャットボットの応答では、これらの薬間の相互作用は報告されていないと主張していました。

この有料道路を使用する潜在的なリスク (Unsplash/Jonathan Kemper 経由の画像)
この有料道路を使用する潜在的なリスク (Unsplash/Jonathan Kemper 経由の画像)

これらの薬物は実際に相互作用し、危険な血圧低下を引き起こす可能性があります。このような重要な情報が欠落していると、疑いを持たないユーザーが予防可能な副作用の犠牲になる可能性があります。

AI チャットボットの間違いから学ぶ

これらのツールを慎重に使用することが重要です (Unsplash/ Ilgmyzin 経由の画像)
これらのツールを慎重に使用することが重要です (Unsplash/ Ilgmyzin 経由の画像)

ChatGPT を擁護して、ボットの頭脳である OpenAI は、そのモデルが医療アドバイスを提供するように特別に設計されていないことを明らかにしました。それは当然ですが、ヘルスケア問題に関しては、AI チャットボットの知識競争を強化する時期が来ているのかもしれません。

医学的な質問については、仮想世界を信じるのではなく、本物の医療専門家に相談するのが最善です。

ここからが肝心です。調査では、これらの AI チャットボットからの 39 件の回答のうち、検証目的の参照が含まれていたのは 8 件のみであることが判明しました。これらの参考文献はどれも本物ではありませんでした。特に健康に関する情報の場合は、提供された情報を再確認することが賢明な選択です。

OpenAI の使用ポリシーは、医療情報をそのテクノロジーのみに依存することは絶対に禁物であることを明確に示しています。彼らは、モデルが深刻な病状の診断や治療のために微調整されていないことを明確に述べています。 「慎重に進んでください」の標識を掲げ、あらゆる医療ニーズについて専門家に相談する時が来ました。

テクノロジーのみに依存することはお勧めできません (Unsplash/Thriday 経由の画像)
テクノロジーのみに依存することはお勧めできません (Unsplash/Thriday 経由の画像)

投薬事故にもかかわらず、AI チャットボットは他の分野でもそれなりの名声を博しています。産婦人科の試験では、チャットボットは人間の受験者を上回り、専門知識を示し、共感などの分野でも優れていました。

実際、スペシャリスト試験では驚異的な平均点を獲得しましたが、人間はわずかに遅れをとっていました。ただし、この成功事例にあまり夢中にならないようにしましょう。

私たちの健康のような重要な問題に関しては、正確な情報を得るために専門家や専門家に頼ることが非常に重要です。 ChatGPT が投薬関連のクエリの処理でつまずいたことは、仮想世界が常に現実の医療指導の代わりになるわけではないことを思い出させ、警戒すべき状況を浮き彫りにしています。

信頼できる医療専門家になり、軽い会話のためにこれらの AI チャットボットのポップ カルチャー スキルを維持するのが最善です。

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です