媲美人类医生!谷歌医疗AI大模型“大显身手

硬AI
谷歌医疗大模型Med-PaLM 2正在美国医院内进行测试,该模型是谷歌专注于医疗领域的大语言模型。虽然AI在医疗领域有助于诊疗,但也存在众多风险,世卫组织呼吁谨慎使用未经测试的AI系统。

AI聊天机器人正在商业公司的推动下,越来越广泛地渗透进人类的日常生活,包括与人类健康紧密相关的医疗领域。

谷歌医疗大模型4月已启动测试

据华尔街日报报道,谷歌医疗大模型Med-PaLM 2自四月份以来,一直在美国梅奥诊所等顶尖私立医院进行测试。

Med-PaLM 2是谷歌对标OpenAI GPT系列的大语言模型PaLM 2的衍生品,后者是目前世界上参数量最大的大语言模型之一。而前缀Med指该模型专注于医疗领域。谷歌称,由于Med-PaLM 2经过了专业医生的训练,因此在医疗领域较ChatGPT等通用聊天机器人更胜一筹

Med-PaLM 2在今年五月份的谷歌I/O开发者大会上首次对外公开,据介绍是首个在美国医疗执照考试中达到专家水平的大语言模型。此后经历了几轮迭代。华尔街日报获取的一封内部邮件显示,谷歌认为更新后的Med-PaLM 2在“就医渠道较为有限”的国家尤其有用

只需输入患者的症状、病例、年龄等细节,Med-PaLM 2就能给出长篇的解答。在梅奥诊所的实验表明,尽管AI还不能取代人类医生,但已经可以作为可靠的助手辅助医生进行诊疗。

据谷歌在5月份发布的论文,和其他大语言模型类似,谷歌Med-PaLM 2也存在“胡言乱语”的问题,但总体来看,谷歌研究人员认为其表现与实际医生不相上下。

研究甚至指出,相比其他人类医生对同一问题的回答,Med-PaLM 2的答案实际上更受医生们欢迎,其回答在九个方面超过了人类医生的回答

曾参与训练Med-PaLM 2谷歌高级研究主管Greg Corrado对华尔街日报表示:

“我并不觉得这种技术现在已经达到了我愿意让家人使用的程度,但在医疗领域AI可以带来好处的环节,它能创造10倍的价值。”

AI进入医疗领域的危险性

值得指出的是,尽管AI的一些回答可能质量较高,但情感价值也是患者就医过程相当重要的一环。由于AI在实质上并不具备同理心,因此很难取代人与人之间的医患沟通。

此外,AI在缺乏有效监管的情况下迅速进入医疗领域,也蕴藏巨大的风险。

前文提及,目前,几乎所有大语言模型都存在“幻觉”问题,容易“胡言乱语”,或将错误信息指认为事实,如未经仔细检查,可能会导致错误的诊断和治疗。

世卫组织WHO在5月份发布声明指,应该AI与医疗服务的整合采取“非常谨慎”的态度。

WHO在声明中称:

“过早采用这些未经测试的AI系统可能会导致医疗工作者犯错误,对病人造成伤害,损害人工智能的信任,从而削弱(或延迟)全世界这些技术的长期潜在收益和使用。”

此外,医疗数据的高度敏感性,也令许多人对科技巨头进入这一领域感到担忧。

尽管谷歌表示Med-PaLM 2获取的数据都已经过加密,公司无法访问到这部分数据。但考虑到谷歌在隐私保护方面的履历相当差劲,单凭这番话很难赢得市场新人。

2019年,谷歌秘密启动了“南丁格尔计划”,与商业伙伴、天主教连锁医院Ascension合作,未经同意即悄悄从美国21个州的数百万患者中收集医疗数据。南丁格尔计划收集的数据包括患者姓名和出生日期等新信息,以及医疗检查结果、医生诊断和住院记录。该计划的目的即是利用AI改善诊疗效果。

风险提示及免责条款
市场有风险,投资需谨慎。本文不构成个人投资建议,也未考虑到个别用户特殊的投资目标、财务状况或需要。用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。