观点:聊天机器人正逐渐成为人们的主要医疗保健医生——令人印象深刻,但风险重大
我们正在迅速从Dr. Google跳转到Dr. Chatbot。在八月, OpenAI报告了超过2亿的每周活跃用户,尽管用户最常询问的问题是关于写作和编码,但有些人用它们处理更为私人的事务,从约会建议到护肤程序,再到疾病诊断。
近期的一项研究显示,AI聊天机器人在诊断准确性上超越了医生。但是,我们真的能把AI当作我们的医生吗?
就像人们询问的话题范围不断扩大一样,人们对依赖医疗领域的AI所带来的风险和危险的担忧也日益增加,包括那些涉及生死的问题。
“神奇”效果让Dr. Chatbot走红
几天前,一位女士在Reddit上引起了热议,因为她分享了如何利用ChatGPT比皮肤科医生更好地改善她的皮肤,而且在使用前后的照片中效果显著。
一位37岁的白种女性使用ChatGPT创建了一个定制的护肤程序来治疗她的闭口粉刺,而且真的对她有帮助!pic.twitter.com/vwkm13G2Hs
— AshutoshShrivastava (@ai_for_success) 2024年11月11日
“然后我给了ChatGPT一个提示,让它像专业的皮肤科医生那样帮助我制定一个能帮助我消除闭口粉刺、痤疮,缩小毛孔和紧致皮肤,减少细纹的皮肤护理程序。我还提供了当时的皮肤照片,”她写道,然后解释说她告诉聊天机器人考虑所有她已经拥有的产品,并建议带有护肤程序的新产品。
两个月后,这位Reddit用户对她的皮肤改善感到惊讶。
这并不是个别案例。许多用户透露,聊天机器人能比他们的医生更好地理解和解释X光和血液检测。甚至医生也对人工智能解读的图像和数据分析感到惊讶。
为什么人们会选择使用聊天机器人作为医生?
人工智能可以转变为您所需要的专业人士 – 一名全科医生,一名治疗师,一名皮肤科医生,一名营养师,一名放射科医生 – 当您需要它时,而且人们选择人工智能而非人类的原因有很多。
专科医生可能很贵
那位有皮肤问题的女性透露,她花费了大约400美元购买了聊天机器人推荐的产品。
“这确实是一笔不小的投资,但当我想到如果去皮肤科医生那儿咨询的话,这个价格甚至还不算坏。”她写道。
根据BetterCare的说法,到2024年,在美国没有健康保险的患者看一次皮肤科医生必须支付大约150美元,治疗费用最高可达1000美元。而心理治疗会话的平均费用——这是AI工具另一个热门的使用领域——每次会话的费用在100到200美元之间,这是根据福布斯健康的报道。
AI聊天机器人是更便宜的选择,尤其对于低收入阶层的人来说,可能是唯一的选择。
当然,另一个问题随之而来:如果出了问题,这真的是一种节省成本的措施吗?
更快更方便
我最近手臂上出现了一片皮疹。尽管我看到了那个女人的皮肤奇迹帖子,但我还是更愿意去西班牙找一位皮肤科医生咨询。即使有私人医疗保险,最早可预约的时间也要三个月后。我很幸运,这只是皮肤干燥,不会让我感到不适,希望在医生能看我的时候,它已经消失了。
医疗护理的时间表取决于城市和患者的保险计划。然而,无论是看专科医生还是初级医生,在世界许多地方都变成了一种考验耐心的事情。
聊天机器人不仅实实在在地触手可及,还能在几秒钟内分析我们的问题并做出回复。
减少尴尬
我有个医生朋友,只要我有医疗咨询的需要,我都可以找她。但是她是我的朋友,这有时会让事情变得有些尴尬。每次我给她发信息之前,我总是会问自己:我最近有没有问候过她?她是个非常好的人,也是一位杰出的专业人士,我相信她永远不会拒绝回答我的医学问题。但是,从人与人的角度,我总是忍不住要关心她的感受。
人工智能的优势之一就是其人工的状态。它没有情绪或坏心情,它不会评判你或告诉你“别再做疑病症患者了”(并非我朋友曾对我说过这样的话),因为它们被训练成有礼貌并回答我们所有的疑虑,提供我们想要的所有信息。这是使这项技术令人上瘾的部分原因,也可能是许多人更喜欢在他们智能手机的“隐私”中提出尴尬问题的原因。
依赖聊天机器人的风险和危险
这一切听起来都很酷很有趣,直到我们花时间思考人工智能和人类面临的风险和挑战。
错误的提示,错误的拼写
在那项研究中,人工智能超越了医生,得出了一个重要的结论:被允许使用人工智能作为诊断助手的医生团队的表现并没有比那些不被允许使用它的医生团队明显优秀。为什么呢?部分问题在于,他们不知道如何编写正确的提示以最大程度地利用人工智能。
“他们把它当成了一个用于提出直接问题的搜索引擎:’肝硬化是癌症的风险因素吗?眼痛可能的诊断是什么?’,”研究的作者之一,Jonathan H. Chen医生对《纽约时报》说。
这也是许多用户和AI技术面临的问题之一。聊天机器人擅长诊断,但许多症状需要以个性化的方式进行单独分析。如果一个人没有向聊天机器人提供正确的上下文怎么办?或者忘记包括一位真正的医生面对患者时不会错过的重要细节或情况?
不准确和幻觉
聊天机器人是专业的万事通,有时候会带着很大的自信说出错误的事情。而我们却相信了。依赖这项技术的用户每天都会对它的信任度越来越高。
很难忘记那个五月的时刻,当Google Gemini建议用户在披萨酱中加入“大约1/8杯的无毒胶水以增加其粘性”。
这很好笑,因为我们可以立即发现这种幻觉——当AI提供荒谬答案时的那种花哨名称。但是,如果这个问题涉及到更复杂的话题呢?如果阅读AI答案的人感到害怕、孤独,并且担心他们的健康状况呢?
即使AI每个月都在变得更好,错误的可能性仍然存在。
如果出了问题,该怪谁?
当前,道德辩论是一个热门话题。如果聊天机器人提供了错误的诊断或糟糕的建议,该怪谁呢?是开发者,模型,AI公司,还是训练该模型的来源?
几周前,一个悲剧性的案例引发了人们的关注。一位美国母亲指责AI导致了她14岁儿子的死亡,并对初创公司Character.ai——一个创建AI角色的平台提起了诉讼。这位青少年患有抑郁症,对这项技术产生了病态的迷恋。他的虚拟形象——丹妮莉丝·塔格利安,与他讨论了一个自杀计划,甚至鼓励他去实施。
尽管世界经济论坛认为AI是一种强大的工具,能够缓解全球的心理健康危机,并减少日益增长的焦虑和抑郁症例子,但它也可能是危险的,尤其是对儿童来说。
风险自负
虽然还有待改进,但我喜欢认为AI在减少医疗保健的等待时间——无论是专家预约还是急诊室护理——加快科学进步,以及支持医生,特别是那些被过度工作量和低工资压垮的医生方面有着巨大的潜力,这在拉丁美洲国家经常是这样,通过在家协助患者回答基本问题。
它还可以帮助弥补不同社会阶层之间的医疗保健获取差距,为医学的民主化铺平道路,这是前所未有的。所有这一切现在都在我们的触手可及之内,对于任何有智能手机的人来说,只需提出一个查询。
然而,至关重要的是要理解,我们仍处于早期阶段,我们必须保护最易受伤害的人群。今天,任何选择使用Dr. Chatbot来改善他们的健康的人,都必须在理解条款和条件中的细则,具备批判性思考,并且清楚地意识到——至少目前——他们正在承担相关风险的责任。
留下评论
取消