首次医疗保健领域生成式人工智能(Gen AI)调查揭示了医疗保健和生命科学从业人员在生成式人工智能方面的趋势、挑战和最佳实践
2024年4月23日,美国德克萨斯州,LEWES ——医疗保健领域的人工智能公司 John Snow Labs 宣布了首届医疗保健领域生成式人工智能调查(Generative AI in Healthcare Survey)的结果。该调查由Gradient Flow公司进行,探讨了医疗保健和生命科学从业人员使用生成式人工智能(GenAI)的趋势、工具和行为。调查结果显示,GenAI 的预算全面大幅增长,五分之一的技术领导者的预算增长超过 300%,这反映出了强大的宣传和投资力度。
调查强调了医疗保健行业从业人员特有的一些关键优先事项。在评估大型语言模型 (LLM) 时,对医疗保健专用模型的强烈偏好是一个关键标准。与可重复性(3.91)、法律和声誉风险(3.89)、可解释性和透明度(3.83)以及成本(3.8)相比,要求模型专门针对医疗保健行业进行调整(4.03 平均响应)的重要性更高。在评估 LLM 时,准确性是重中之重,而缺乏准确性则被认为是 GenAI 项目的最大风险。
另一个重要发现是,人们更倾向于使用小型的、针对特定任务的语言模型。与通用 LLM 不同,这些有针对性的模型针对特定的使用案例进行了优化。调查结果反映了这一点,36% 的受访者使用医疗保健特定任务专用语言模型。开源 LLM(24%)和开源特定任务模型(21%)紧随其后。专有 LLM 的使用率较低,无论是通过 SaaS API(18%)还是内部部署(7%)。
在如何测试和改进模型方面,调查强调了一种既能解决医疗保健行业准确性问题又能解决合规性问题的做法:人在环路(human-in-the-loop)工作流程。这是迄今为止测试和改进 LLM 最常见的步骤(55%),其次是监督微调(32%)以及可解释性工具和技术(25%)。人在环路的方法使数据科学家和领域专家能够轻松合作,根据他们的确切需求对模型进行训练、测试和微调,并随着时间的推移根据反馈对模型进行改进。
John Snow Labs 首席技术官大卫·塔尔比(David Talby)表示:“医疗保健从业者已经在 GenAI 上投入了大量资金,虽然预算可能并不是他们最关心的问题,但很明显,准确性、隐私和医疗保健领域的专业知识这些因素都至关重要。”调查结果揭示了医疗保健特定、任务特定语言模型的重要性,以及作为实现准确、合规和负责任地使用该技术的重要技术的人在环路工作流程的重要性。
最后,调查还探讨了在医疗保健 GenAI 项目中应用负责任人工智能原则的大量后期工作。据报告,缺乏准确性(3.78)以及法律和声誉风险(3.62)是最令人担忧的障碍。更糟糕的是,大多数 GenAI 项目尚未针对所引用的任何 LLM 要求进行测试。在已经测试过的项目中,公平性(32%)、可解释性(27%)、私人数据泄露(27%)、幻觉(26%)和偏见(26%)是最常见的测试项目。这表明,超过三分之一的组织正在测试负责任人工智能的任何方面。
美国东部时间 4 月 30 日下午 2 点,来自 Gradient Flow 公司的本·罗瑞卡(Ben Lorica) 博士和来自 John Snow Labs 的大卫·塔尔比博士将举行一场网络研讨会,就调查结果和 GenAI 在医疗保健领域的现状提供更多细节和分析。
关于John Snow Labs
John Snow Labs是一家面向医疗保健的人工智能公司,它提供最先进的软件、模型和数据,帮助医疗保健和生命科学机构充分利用人工智能。John Snow Labs 是 Spark NLP、Healthcare NLP、Healthcare GPT LLM、Generative AI Lab No-Code Platform 和 Medical Chatbot 的开发商,其屡获殊荣的医疗人工智能软件为世界领先的制药公司、学术医疗中心和健康技术公司提供支持。该公司是NLP 峰会的创建者和主办方,致力于进一步教育和推动全球人工智能社区的发展。
联系人
吉娜·戴文(Gina Devine)
John Snow Labsgina@johnsnowlabs.com
(机器翻译,轻度译后编辑,仅供参考)
编辑:武娇阳