今日应用
今日话题
医学顶刊TMI 2024!首个研究医疗AI算法公平性的眼科图像分类数据集
重点标签 Harvard-GF数据集
文章摘要
摘要:
本文介绍了Harvard-GF数据集,这是一个用于检测青光眼的视网膜神经疾病数据集,同时具有2D和3D数据,旨在实现公平学习。作者提出了一个公平性方法(Fair Identity Normalization,FIN),通过平衡不同身份组之间的特征重要性来提高模型的公平性,并且其性能优于多种现有SOTA公平模型。
详细内容:
1. 背景:
公平性在机器学习中对社会福祉至关重要,但公共数据集的有限性限制了其进展。目前,没有专门的公共医疗数据集带有影像数据用于公平学习,尽管少数群体患有更多的健康问题。为了填补这一空白,我们介绍了Harvard Glaucoma Fairness (Harvard-GF) 数据集,这是一个包括3300名受试者的视网膜神经疾病(青光眼)数据集,含有2D和3D图像数据,并且在种族群体的样本数量上实现了平衡,用于青光眼检测。
2. Harvard-GF数据集特点:
– 它是第一个专门用于医学成像深度学习研究的公平性数据集。
– 数据集中包含了来自三个主要种族群体(白人、黑人和亚洲人)相等数量的受试者,这避免了可能混淆公平学习问题的数据不平衡问题。
– 提供了2D和3D成像数据,这为3D公平学习提供了未被充分探索的研究机会。
3. Fair Identity Normalization方法:
论文还提出了一种公平身份归一化Fair Identity Normalization方法,通过可学习的均值和标准差按身份群体(如种族和性别群体)归一化模型的特征空间,旨在平衡深度学习模型中不同身份群体间的特征重要性。
4. 性能评估:
为了促进不同模型间的公平比较,文章还提出了一种基于公平性的性能衡量方法,这种方法考虑了准确性与公平性之间的权衡,能够灵活用于在公平性背景下比较所有种类的性能指标,如AUC和Accuracy。
5. 数据集获取:
数据涵盖2010至2021年,来源于一所大型学术眼科医院,包括三种主要类型:OCT扫描、患者人口统计数据和基于视野测试的青光眼诊断。
6. 提升公平性的方法:
用于评估公平准确性的Equity-Scaled Metrics,这种公式确保ES-AUC始终小于或等于I。随着群体间的分类性能平等,ES-AUC趋于传统分类metric。相反,较高的群体间的分类性能差异,导致较低的ES-AUC得分。
7. 总结:
本文介绍了Harvard-GF数据集,这是一个用于检测青光眼的视网膜神经疾病数据集,同时具有2D和3D数据,旨在实现公平学习。我们提出了一个公平性方法(FIN),通过平衡不同身份组之间的特征重要性来提高模型的公平性,并且其性能优于多种现有SOTA公平模型。
重点内容:
– Harvard-GF数据集:首个专门用于医学成像深度学习研究的公平性数据集。
– Fair Identity Normalization:提出的新方法,旨在平衡深度学习模型中不同身份群体间的特征重要性。
– 性能评估:新提出的基于公平性调整的性能评估指标,以惩罚模型的公平性水平。
文章来源
原文地址: 点我阅读全文
原文作者: 极市平台