背景
MedLM 是面向医疗保健行业微调的一系列基础模型。 Med-PaLM 2 是 Google Research 开发的基于文本的模型,是支持 MedLM 的文本模型之一,是首个在解答医学许可检查 (USMLE) 类问题方面达到美国专家专家水平的 AI 系统。 这些模型的发展取决于特定的客户需求,例如回答医学问题和草拟综述。
MedLM 模型卡片
MedLM 模型卡片概述了模型详情,例如 MedLM 的预期用途、数据概览和安全信息。点击以下链接可下载 MedLM 模型卡片的 PDF 版本:
监管信息
MedLM 预期用途
MedLM 基于 Google Research 经过医学调整的大语言模型 Med-PaLM 2。它旨在用于对现有文档进行问答和创建草稿摘要,以便在用户在使用之前进行审核、修改和批准。MedLM 还用于专业医护人员 (HCP) 的教育目的,以便参与医疗解答,以帮助支持 HCP。
使用条件和范围外的应用
- MedLM 客户和用户必须遵守生成式 AI 使用限制政策、Google Cloud Platform 服务专用条款、服务条款、使用限制政策、用户指南以及其他产品文档。
- 根据我们的服务专用条款,客户不得将 MedLM 用于临床目的(为清晰起见,非临床研究、时间安排和其他管理任务不受限制),提供医疗建议,也不得以任何受医疗设备监管机构监督或需要医疗设备监管机构许可或批准的方式使用此模型。
- 禁止直接患者使用。该产品用作在医疗保健和生命科学行业具有高水平专业知识、教育背景或经验的临床医生、HCP 或知识工作者的辅助工具。
- 禁止将 MedLM 用作医疗设备。
- MedLM 的预期用途是草拟将在使用前由“人机协同 (human-in-the-loop)”审核的文档和回答。
- 我们建议目前仅将 MedLM 用于医学类问答和摘要应用场景:
- 长篇问答
- 选择题问答
- 摘要,例如创建访视后摘要或病例和身体检查记录
- 不允许的医疗设备使用示例包括(但不限于):
- 分析患者记录、处方模式和地理数据等,以确定可能诊断为阿片类药物成瘾的患者身份。
- 分析针对特定患者的医学信息,以检测生命威胁(例如中风或败血症)以及生成警报或提醒来通知 HCP。
- 分析医疗记录中针对特定患者的医疗信息(包括最新的乳房摄影术报告发现结果),提供后续操作或治疗方案列表。
- 根据使用患者医疗记录中的医疗信息(例如诊断和人口统计)对临床研究数据库中报告的结果所进行的分析,向 HCP 分析 FDA 授权的抑郁症治疗方案的优先列表。
MedLM 目前仅向美国列入许可名单的客户提供。
MedLM 不可用作医疗设备。客户应用场景必须与预期用途和使用条件一致。问答应仅用于教育目的,摘要输出必须始终由用户根据其临床判断进行独立审核和验证。
MedLM 与 PaLM
MedLM 的用法与 PaLM 类似。但是,与 PaLM 不同,MedLM 一直在调整特定的医疗任务,例如精选形式的汇总和医学问答。
但是,与大多数 LLM 新应用一样,我们建议您谨慎地验证和/或调整 MedLM 的使用,以确保在这些任务中表现良好。对于不需要专门医学专业知识的任务(例如,常规 NLP 任务或对医学数据进行操作但不需要专业知识的任务),我们预计 MedLM 的表现可能类似于 PaLM 等更通用的模型,鼓励在特定用例上尝试这两者。如需详细了解用于训练和验证 MedLM 的问答任务,另请参阅 Med-PaLM 论文。如出版物中所述,模型不会内置回复基于权威医疗来源或考虑医学共识随时间变化的性质等功能。
根据我们的生成式 AI 服务专用条款,客户不得将 MedLM 用于临床目的(为清晰起见,非临床研究、时间安排和其他管理任务,不仅限于此),以提供医疗建议,也不得以任何受医疗设备监管机构监督或需要医疗设备监管机构许可或批准的方式提供医疗建议。
MedLM 模型
当前的 MedLM 版本提供两种模型:
- MedLM-medium
- MedLM-large
MedLM-medium 和 MedLM-large 具有单独的端点,为客户提供了更大的应用场景灵活性。MedLM-medium 为客户提供更高的吞吐量,并包含最新的数据。MedLM-large 是与预览阶段相同的模型。这两个模型在产品生命周期内将继续刷新。在本页面中,“MedLM”指的是这两个模型。
客户责任
MedLM 在设计时充分考虑了经过训练和获得许可的医疗保健从业用户。Google Cloud 客户和最终用户应了解 LLM 和生成式 AI 本质上是概率性的,且不一定是准确的。在客户未充分考虑或控制的情况下,在医疗保健中使用生成式 AI 模型可能会因内容不准确、缺少内容或具有误导性的带偏见内容而给患者造成危险。
- 客户应针对所有 MedLM 使用(例如充分的从业人员教育、培训、公平性评估以及适当的技术控制)实施适当的危险缓解措施。
- 客户还必须自行评估性能和安全性,以确保应用场景免遭损害。
MedLM 针对某些群组生成的结果可能不如其他群组,具体取决于问题及提问方式。客户应该注意,模型对于不同人群的输出性能差异有可能加剧健康不平等和固化有害的偏见。这种输出的不准确不是 MedLM 所特有的,通常由多种因素造成,例如现有社会性和结构性不平等、错误的医学观念、负面刻板印象以及训练数据缺乏多样性。
- 客户应考虑实施注重公平性的评估和缓解措施。这包括评估各种群体的预期应用场景的模型表现和行为,例如种族/民族、社会经济状况 (SES)、地理位置、性别认同、性取向、年龄、语言偏好、社会等级等);获得表现反馈;聘请多学科专家和外部合作伙伴,专门负责定义和解决健康的社会和结构问题:并持续监控工作以评估和解决偏见问题。
请求访问权限
对 MedLM 模型的访问受到限制。如要请求访问权限,请联系您的 Google Cloud 客户支持团队。
提供反馈
您在使用过程中提供的反馈可帮助我们改进未来的模型版本并确保继续为用户提供最佳的体验。请联系 [email protected] 并抄送您的 Google Cloud 客户支持团队和 Google Cloud 客户工程师 (CE)。此电子邮件地址无法立即提供支持。如需请求即时支持,请与您的 Google Cloud 客户支持团队或 Google Cloud 客户工程师 (CE) 联系。
我们将根据您的《Google Cloud 服务协议》中的条款将电子邮件回复用作反馈,并根据 Google Cloud 隐私权声明进行收集。请勿在此反馈表单中包含任何个人信息(姓名、电子邮件地址)或其他敏感或机密数据。请注意,我们可能会使用人工审核和自动处理来审核数据。
举报滥用行为
您可以在举报 Google Cloud 上的疑似滥用行为部分,举报 MedLM API 的疑似滥用行为、任何包含不当内容或不准确信息的生成输出。在 Google Cloud Platform 服务列表中,选择 Cloud AI。
价格
后续步骤
- 查看示例,了解如何创建 MedLM 提示。