普瑞纯证

外媒 | 医疗保健必须为AI设置透明度和安全性的防护栏-普瑞纯证

医疗保健必须为AI设置透明度和安全性的防护栏

根据MITRE-Harris关于患者体验的调查,有四分之一的患者认为医生存在隐性偏见。此外,使用AI工具和机器学习模型也已经显示出存在种族偏见的倾向。最近的一项研究发现,60%的美国人不愿意医疗保健提供者依赖AI技术。但是,由于医疗保健提供者短缺、报酬减少和患者需求增加,他们可能最终别无选择,只能转向AI工具。

医疗保健新闻与Lumeris的首席技术官Jean-Claude Saghbini进行了交谈,讨论了医疗保健领域AI技术所面临的问题,以及提供者组织的健康IT领导者和临床医生可以采取的措施。

问:随着AI系统的普及,医疗保健提供者组织的CIO和其他健康IT领导者如何对抗人工智能中的隐性偏见?

答:当我们谈论AI时,我们经常使用“训练”和“机器学习”等词语。这是因为AI模型主要是在人类生成的数据上进行训练的,因此它们学习了我们的人类偏见。这些偏见是AI中的一个重要挑战,尤其是在医疗保健领域,因为患者的健康处于危险之中,而他们的存在将继续传播医疗保健不公平现象。

为了解决这个问题,健康IT领导者需要更好地了解嵌入到他们所采用的解决方案中的AI模型。也许更重要的是,在实施任何新的AI技术之前,领导者必须确保提供这些解决方案的供应商了解AI偏见可能带来的危害,并相应地开发他们的模型和工具以避免这种情况。这可以包括确保上游训练数据是无偏的和多样化的,或者应用转换方法来补偿训练数据中不可避免的偏差。

例如,在Lumeris,我们正在采取多管齐下的方法来对抗AI中的偏见。首先,我们正在积极研究和适应底层数据中所代表的健康差异,以实现医疗保健的公平和公正。这种方法涉及分析医疗保健训练数据的人口统计模式,并调整我们的模型,以确保它们不会对任何特定人群造成不公平的影响。

其次,我们正在使用更多样化的数据集来训练我们的模型,以确保它们代表所服务的人群。这包括使用更具包容性的数据集,代表更广泛的患者人口统计信息、健康状况和临床情况。

版权声明 本网站所有注明“来源:普瑞纯证”或“来源:pureFDA”的文字、图片和音视频资料,版权均属于普瑞纯证网站所有。非经授权,任何媒体、网站或个人不得转载,否则将追究法律责任。取得书面授权转载时,须注明“来源:普瑞纯证”。其它来源的文章系转载文章,本网所有转载文章系出于传递更多信息之目的,转载内容不代表本站立场。