CS@W m.m博士生Viet Duong和他的导师邵华杰教授以新颖的人工智能可解释性框架获得ACM SIGKDD 2024最佳论文奖

虽然深度神经网络(dnn)在各个领域取得了显著的成功,但缺乏可解释性阻碍了它们在高风险应用(如自动驾驶汽车、金融和医疗保健)中的部署。因此,增强深度神经网络的可解释性已成为近年来研究的一个关键领域。
“人类的解释通常依赖于基于概念的推理,这种推理在语义上将低级特征分组为高级概念,然后使用这些高级概念解释决策。例如,在像糖尿病这样的医学诊断中,医生通常通过参考家族史、病史、饮食模式和血液检查等高层次因素来解释他们的结论。这篇论文的主要作者、威廉与玛丽计算机科学学院的博士候选人Viet Duong Ami说。
本文提出了一种新的基于可解释概念的泰勒加性模型CAT来解释深度神经网络的预测。CAT不需要领域专家对概念及其真值进行注释。此外,它可以使用多项式显式地学习输入和输出之间的非线性关系。
计算机科学部庆祝这一重大成就和团队对推进机器学习领域的贡献。他们的工作不仅增强了我们对深度神经网络的理解,而且促进了深度神经网络在高风险应用中的部署。
