您是否使用 ChatGPT 等人工智能聊天机器人来回答有关药物的问题?如果是这样,您可能想继续阅读。
长岛大学药剂师最近发表的研究表明,人工智能聊天机器人(称为“ChatGPT”)无法对大约四分之三的药物相关查询提供令人满意的答复。
研究表明,Chat Genius 药房聊天机器人(或简称 ChatGPT)无法满足 75% 的药物相关查询。这是根据长岛大学药剂师最近的一项研究得出的结论。
在聊天机器人失败的问题中,只有 25% 的问题得到了聊天机器人的正确回答,而 65% 的问题得到了错误的答案,甚至不值得得到回应。
研究表明 ChatGPT 在药物相关查询方面存在不足
长岛大学药剂师最近进行的一项研究为 ChatGPT 提供了终极处方测试。在向这个精通流行文化的聊天机器人提出的 39 个与毒品相关的问题中,只有 10 个回答被认为是“令人满意”。另外 29 个回答则不太切中要害。他们要么回避问题,提供不准确的信息,要么根本不完整。
我们不要忽视隐藏在 ChatGPT 数据库中的潜在有害建议。该研究强调了一个明显的案例,其中人工智能聊天机器人被问及 COVID-19 抗病毒药物 Paxlovid 和血压降压药物维拉帕米之间的药物相互作用。< /span>
由于聊天机器人的回应声称没有这些药物之间相互作用的报告。
这些药物实际上可以相互作用,导致血压危险下降。由于缺少如此重要的信息,毫无戒心的用户可能会成为可预防的副作用的受害者。
从人工智能聊天机器人的错误中学习
在 ChatGPT 的辩护中,机器人背后的大脑 OpenAI 澄清说,他们的模型并不是专门为提供医疗建议而设计的。这很公平,但也许现在是人工智能聊天机器人在医疗保健问题上提高知识水平的时候了。
我们最好向真正的医疗保健专业人士咨询我们的医疗问题,而不是相信虚拟世界。
关键是——研究发现,在这些人工智能聊天机器人的 39 条回复中,只有 8 条包含用于验证目的的参考。这些参考文献都不是真实的。仔细检查所提供的信息是一个明智的选择,尤其是当它关系到我们的福祉时。
OpenAI 的使用政策清楚地表明,仅仅依靠他们的技术来获取医疗信息是一个很大的禁忌。他们明确表示,他们的模型并未针对严重疾病的诊断或治疗进行微调。是时候张贴“谨慎行事”的牌子,并就我们所有的医疗需求咨询专业人士了。
尽管出现了药物事故,人工智能聊天机器人在其他领域也享有盛誉。在一次妇产科考试中,聊天机器人的表现超越了人类考生,展示了专业知识,甚至在同理心等领域表现出色。
事实上,它在专家考试中取得了令人印象深刻的平均分,而人类则稍稍落后。然而,我们不要对这个成功故事太得意忘形。
当涉及到我们的健康等重大问题时,依赖专家和专业人士获取准确的信息至关重要。 ChatGPT 在处理药物相关查询方面的失误描绘了一幅警示图,提醒我们虚拟世界并不总是可以替代现实生活中的医疗指导。
最好成为值得信赖的医疗保健专业人员,并保留这些人工智能聊天机器人的流行文化技能,以进行轻松的对话。
发表回复