网站徽标

INSEAD的哈佛大学发表了针对AI / ML设备的系统性监管方法

Pixabay

首次发布于

潜水简介:

  • A  发表在《自然》数字医学杂志上的星期二认为FDA的 提议的 规范人工智能和机器学习的方法遗漏了重要的一点。
  • 哈佛大学和欧洲INSEAD商学院的研究人员呼吁FDA停止评估单个AI / ML产品,而转向评估系统。该案例基于这样一种信念,即AI / ML产品的实际性能差异太大,以致于对技术的狭focus关注才有效。
  • 相反,研究人员希望FDA将更多的问题纳入考虑范围,例如医师培训,并可能将AI / ML产品的授权限制在特定的医院。

潜水见解:

FDA及其同行机构主要监管产品。公司在新药或医疗设备上归档数据,监管机构评估证据是否支持营销授权。如图所示,包括医师技能在内的因素会影响产品在现实世界中实现的结果 学习 各个卫生中心的结果差异,但是这些考虑不在FDA的职权范围之内。

哈佛大学和欧洲工商管理学院(INSEAD)的研究人员在npj Digital Medicine中写道,在使用AI / ML的软件作为医疗设备(SaMD)产品的时代,需要做出改变。作者写道,外部因素对基于AI / ML的SaMD性能的影响太大,以至于FDA无法将其重点放在产品本身上。

本文指出了组织因素,如资源,人员,技能,培训,文化,工作流程和流程对软件使用的影响。这种影响的证据使作者断言:“没有理由期望基于AI / ML的SaMD的采用和影响在所有环境中都是一致的,甚至可以提高性能。”

在医疗保健领域有先例可以支持这种观点。正如作者所指出的那样,计算机辅助X线摄影检测在2000年代初激增, 研究 发现该技术对诊断准确性无积极影响。 AI / ML论文的作者解释说,由于“医生与CAD的交互方式”的结果,缺乏积极的影响,并继续认为类似的动态可能会在基于AI / ML的SaMD中发挥作用。

得出结论认为,AI / ML在一种医疗保健环境中可能是有益的,而在另一种医疗保健环境中却是有害的,因此作者认为,这种差异使评估产品是否具有积极的风险收益特征变得复杂。这组作者说,解决这种复杂问题的方法是在使用产品的系统中评估产品。

“一个完整的系统方法将要求监管者收集超出其当前监管范围甚至可能超出其法律授权范围的大量信息的数据,这需要附加的法定权限-保险公司的赔付决定,法院判决对责任的影响,过程中的行为偏见,任何第三方提供者的数据质量,第三方开发的任何(可能是专有的)机器学习算法,以及许多其他方法,”作者写道。

进行此类评估后,监管机构将“发布有限的监管授权,以跟踪上述因素。”作者甚至看到FDA将批准范围限制为特定医院中某些“经过培训和授权”的用户的范围。

由于这种方法的优先级有限,因此作者接受审查制度对于FDA及其同行来说将是一个巨大的改变,并且目前是不现实的主张。然而,作者们还认为,监管机构可以在产品和系统方法之间循序渐进,例如,要求获得更多医疗保健专业人员如何响应AI / ML设备输出的数据,并要求进行培训以减少差异。

提起下: 愈合th IT