AI聊天误导美男子食溴化钠中毒

AI聊天机器人给出错误建议 美男子误食溴化钠中毒

美国一名60岁男子因阅读食盐负面影响资料后,向AI聊天机器人ChatGPT咨询是否可以戒盐,却意外误信了其回答,连续三个月食用溴化钠,最终导致罕见的溴中毒。这起案例引发了对人工智能技术在医疗领域的潜在风险的担忧。

该男子在无任何精神病史的情况下,出现妄想症状,声称邻居试图毒害他,并拒绝饮用医院提供的饮用水,表现出明显的偏执和失控行为。经过医师进一步调查,发现他存在多项饮食限制、脱水现象以及情绪波动、言谈混乱等问题,最终因严重失能被送往精神病房治疗长达三周。

男子在病情稳定后坦承,自己查阅食盐副作用资料后试图进行“戒盐”实验,并向ChatGPT咨询替代品,结果AI回答“氯化物可以被溴化物取代(虽然多用于清洁用途)”。他误解了此信息,自行服用溴化钠长达三个月。

医师无法获取该男子与ChatGPT的完整对话记录,但他们自己使用ChatGPT 3.5询问“氯化物可以用什么取代”,得到的答案同样提及溴化物,却未附上任何明确的健康风险警告,也没有厘清使用动机。报告指出,“这与我们认为医疗专业人士应有的做法相去甚远”。

溴中毒在20世纪初相当常见,因当时许多非处方药物和镇静剂都含有溴成分,被怀疑导致近10%的精神病住院病例。虽然这类情况在现代已极为罕见,但由于网上购买含溴化物的产品变得更容易,近年类似病例又开始出现。美国国家医学图书馆资料也指出,溴化盐如今只被用于猫狗的抗癫痫药物,并不适合人类食用。

该报告呼吁医疗专业人员在问诊时,应纳入AI资讯来源的考量,因为像ChatGPT这样的工具,虽然具有一定的知识基础,却可能回复去脉络化或错误的信息。 同时,也凸显出AI技术在缺乏医疗判断力下,可能导致本可避免的健康风险。

阅读本文之前,你最好先了解…

  • ChatGPT的工作原理: ChatGPT是一个大型语言模型,通过训练大量文本数据学习语言模式和知识。它可以生成文本、回答问题、翻译语言等,但本质上是根据输入的文本进行预测,并非真正理解信息的含义。
  • AI在医疗领域的应用局限性: 虽然AI技术在医疗领域展现出巨大潜力,例如辅助诊断、药物研发等,但目前还不能完全替代人类医生。AI模型依赖于训练数据,而医疗信息复杂多样,存在大量例外情况,AI难以全面掌握。
  • 信息获取的责任: 在信息爆炸时代,人们更容易接触到各种信息来源,包括AI聊天机器人。 然而,并非所有信息都是可靠的,需要学会辨别真伪,并结合自身实际情况进行判断。

进一步探讨:

  • 如何提高AI在医疗领域的安全性?
  • 人类和AI在医疗领域如何协同工作?
  • 如何教育公众正确使用AI工具?

结论: 这起案例再次提醒我们,尽管AI技术发展迅速,但在医疗领域仍需谨慎应用。 我们需要加强对AI技术的监管,提高其安全性和可靠性,同时也要引导公众理性使用AI工具,并始终保持对自身健康的责任感。

如果你有其它意见,请评论留言。

文章为网友上传,如果侵权,请联系我们

发表评论