关于生成式人工智能(GenAI)能做什么、不能做什么和不应该做什么,一直不乏新的主张和想法。尽管大肆宣传,但只有少数成功的现实世界企业项目应用了这项技术。医疗保健行业是个例外,拥有广泛的GenAI用例。
从将大语言模型(LLMs)用于临床决策支持、患者疗程轨迹和高效的医疗文档,到使医生能够构建一流的医疗聊天机器人,医疗保健在将GenAI投入生产并发挥即时价值方面取得了重大进展。那么,其他从业者可以从医疗保健的最佳实践和应用人工智能的经验教训中获得什么呢?以下是人工智能在医疗保健领域应用的四个教训。
数据越多越好
许多传统的医疗保健LLMs只考虑患者的诊断和年龄。但是,如果将其扩展到几个多模态记录,如人口统计、临床特征、生命体征、吸烟状况、既往手术、药物治疗和化验检查,会怎么样呢?通过统一这些特征,可以对患者有更全面的了解,从而有可能制定更全面的治疗计划。额外的数据可以显著提高各种下游任务的模型性能,如疾病进展预测和不同疾病的分型。鉴于额外的功能和解释能力,LLMs可以帮助医生对各种疾病的疾病轨迹、诊断和风险因素做出更明智的决策。很容易看出这种方法如何应用于营销人员的客户之旅,或者保险或金融公司的风险评估——潜力是无限的。
数据越干净越好
结合结构化数据(如电子健康记录和处方)和非结构化数据(如临床记录、医疗影像和pdf)来创建患者的完整视图至关重要。然后,这些数据可在提供用户友好的界面上呈现,如聊天机器人,以收集关于患者的信息或识别可能成为临床试验或研究工作候选人的患者群。这听起来很简单,但我们不要忘记隐私和数据限制,这些限制使医疗保健和其他高合规性环境面临挑战。为了充分利用聊天机器人并满足监管要求,医疗保健用户必须找到解决方案,使他们能够将嘈杂的临床数据转移到可以自动回答问题的自然语言界面上——首先是大规模的和完全隐私的。由于这无法通过简单地应用LLM或检索增强生成(RAG)LLM解决方案来实现,因此它从医疗保健特定的数据预处理流程开始。法律和金融等其他高合规性行业可以借鉴医疗保健行业的做法,在商用硬件上私下大规模准备数据,并使用其他模型进行查询。
领域专家提高准确性
直到现在,人工智能的用处取决于企业级用例背后的数据科学家和IT专业人员。无代码解决方案正在出现,专门为最常见的医疗保健用例设计。最值得注意的是使用LLMs引导特定任务的模型。本质上,这使得领域专家能够从一组提示开始,并提供反馈来提高准确性,这超出了指令工程所能提供的范围。然后,LLMs可以为特定任务训练小型的微调模型。这种方法将人工智能交到领域专家的手中,产生比LLMs本身所能提供的更高精度的模型,并且可以大规模廉价运行。这对于高合规性企业特别有用,因为不需要数据共享,并且零提示和LLM可以部署在组织的防火墙后面。可以内置全方位的安全控制,包括基于角色的访问、数据版本控制和完整的审计跟踪,这使得即使是人工智能新手用户也可以轻松跟踪变化,并随着时间的推移继续改进模型。
道德发展建立信任
确保人工智能生成输出的可靠性和可解释性对于维护患者安全和对医疗保健系统的信任至关重要。此外,解决固有偏见对于所有患者群体公平获得人工智能驱动的医疗保健解决方案至关重要。临床医生、数据科学家、伦理学家和监管机构之间的合作努力对于在医疗保健及其他领域负责任地部署人工智能建立指导方针是必要的。正是因为这些原因,健康人工智能联盟(CHAI)成立了。CHAI是一个非营利组织,其任务是为负责任地开发和部署医疗保健领域的人工智能应用程序创建具体的指导方针和标准。CHAI与美国政府和医疗保健界合作,为在医疗保健领域部署GenAI应用程序创造了一个安全的环境,涵盖了在构建公平、公正和公正的产品和系统时需要考虑的特定风险和最佳实践。CHAI的经验可以在任何行业复制,以确保人工智能的安全有效使用。
结论
医疗保健处于GenAI的前沿,其定义是精准医疗、个性化治疗和改进的新时代,将带来更好的结果和生活质量。但这不是一夜之间发生的;GenAI在医疗保健领域的整合经过深思熟虑,解决了技术挑战、伦理考虑和监管框架。其他行业可以从医疗保健对人工智能驱动的创新的承诺中学到很多东西,这些创新有利于患者和整个社会。
机器翻译,轻度译后编辑,仅供参考。
编辑:张梓琦