医生一直在使用像 ChatGPT 这样的人工智能来执行各种任务,包括处理繁琐的文书工作、预测健康问题,甚至改善他们的床边态度,但是经过医学检查训练的大型语言模型(LLM)可以帮助他们进行诊断吗? 谷歌 希望通过一种名为 Med-PaLM 2 的新型医疗专用聊天机器人将人工智能带入医疗保健主流,该机器人自 4 月份以来一直在测试该机器人。 华尔街日报 报道,援引知情人士的话。
据谷歌网站介绍,Med-PaLM 2 是一个法学硕士,可以回答医学问题、组织信息,并可以合成包括图像和健康记录在内的各种模式的数据。 谷歌也是聊天机器人 Bard 的制造商,它对 Med-PaLM 2 进行了医疗执照考试训练,不出所料,它是第一个为美国医疗执照考试 (USMLE) 类型的问题提供及格答案的人工智能。 USMLE 风格的问题呈现了一个患者场景,列出了症状、病史、年龄和其他描述符,并提出了诸如最有可能出现什么并发症等问题。 除了从多个选项中进行选择之外,Med-PaLM 2 还能够为这些问题提供详细的答案。
OpenAI 的 GPT-4(ChatGPT 的继任者)在医学考试问题上的得分与 Med-PaLM 2 相似,尽管没有接受过专门的考试培训。 然而,这两种技术对于医疗保健领域的高风险应用来说仍然不够可靠。
Med-PaLM 2 的高级研究总监格雷格·科拉多 (Greg Corrado) 表示:“我认为这种技术还没有达到我想要的家庭医疗保健之旅的水平。” 华尔街日报。
Google 目前正在研究医院试用 Med-PaLM 2 梅奥诊所,并且尚未宣布聊天机器人何时向公众发布。 医院已经在使用 ChatGPT,并且几乎在其发布后立即开始使用,而不仅仅是为了快速提出医疗问题。 医生使用人工智能不再像百科全书,而更像助手,甚至询问聊天机器人如何进行困难的交互, 比如干预措施 对于那些与毒瘾作斗争的人。
据介绍,使用人工智能模板与患者沟通似乎不足以替代人与人之间的联系,但 Med-PaLM 2 对医疗问题的回答实际上比真正医生的回答更受欢迎 研究 谷歌于五月发布。 医生们将人工智能生成的反应与人类在九个垂直方向上写下的反应进行了比较,并在九个垂直方向上的八个中更喜欢人工智能的答案。
尽管某些人工智能答案的质量可能更高,但 2018年调查 研究发现,大多数患者在医疗护理中优先考虑同情心,甚至愿意支付更高的费用以获得更富有同情心的体验。 人工智能从根本上不能提供同情心,但它用于创建改善床边态度的脚本似乎有助于促进更顺畅或更温和的医患对话。
尽管如此,许多人仍担心人工智能过快地融入医学且缺乏监管可能会带来灾难性后果。 人工智能经常产生“幻觉”,将虚假信息陈述为事实,如果不经过人仔细检查,可能会导致错误的诊断或治疗。 此外,人工智能具有复制和放大的潜力 偏见已经根深蒂固 如果没有经过正确的培训,就会进入医疗保健系统。 世界卫生组织发布了一份 陈述 五月呼吁非常谨慎地将人工智能引入医学。
世界卫生组织表示:“仓促采用未经测试的系统可能会导致医护人员犯错,对患者造成伤害,削弱人们对人工智能的信任,从而破坏(或延迟)此类技术在世界范围内的潜在长期效益和使用。”写道。
还有一个问题是,如果将患者数据输入医院人工智能谷歌和医院,将如何使用患者数据? 微软 两家医院都没有根据患者数据训练算法,但未来每家医院都可以根据患者数据训练人工智能。 谷歌已经开始将梅奥诊所明尼苏达州总部的患者数据用于特定项目。
谷歌表示,患者数据通常会被加密并且公司无法访问,但这家科技巨头过去因其使用医疗数据而引起争议。 2019 年,谷歌发起了一项名为“南丁格尔计划”的计划,在未经同意的情况下收集了 21 个州数百万美国人的医疗数据。 这些数据包括患者姓名和其他识别信息、诊断、实验室结果和记录。 它是在医生或患者不知情的情况下由谷歌内部使用的。
谷歌在其声明中写道:“需要仔细考虑这项技术的道德部署,包括在不同的临床环境中使用时进行严格的质量评估,并采取防护措施,以减轻对医疗助理输出的过度依赖。” 报告 在 Med-PaLM 上。
谷歌没有回应 财富的评论请求。