关于本课题
即使机器学习(ML)在许多领域取得了巨大的成功,人类仍然对使用ML方法犹豫不决,因为人类无法理解机器学习方法的内部决策过程(黑箱性质)。特别是对于人在环系统,人类需要理解这些算法来适当地使用它们,信任它们的决策能力,并通过了解它们的弱点来改进它们。为了解决这个问题,可解释的机器学习(XAI/可解释的AI)研究领域被引入。可解释的机器学习旨在为机器学习模型的输出提供推理,使人类能够理解和信任机器学习模型的决策过程。它专注于使机器学习模型能够解释它们的基本原理,描述它们的优点和缺点,并传达对它们在未来将如何表现的理解。此外,XAI专注于生产具有高性能水平的AI模型,同时允许用户理解、信任和有效地管理机器学习算法。
我们在这个前沿研究课题中的目标是开发可解释的机器学习方法,解决四个重叠的领域。解释来证明——机器学习算法结果的原因/证明;解释改进:通过理解算法的模型决策过程,对算法进行持续改进;向控制解释:通过提供未知漏洞、流程的可见性来保护模型不产生错误结果,并通过调试帮助识别和纠正错误;向发现解释:通过解释来学习新的事实、收集信息和获得知识。
此外,我们的主题还关注可解释ML模型的评估策略,将其连接到用例、评估指标和影响。我们也希望通过从多学科的角度探索上述领域,开发新的方法来扩大该领域的边界。
本研究主题将为研究人员提供一个论坛,以提交关于可解释机器学习的新思想和技术的文章,特别是专注于人在循环的机器学习系统。它还将为跨学科研究技术的融合提供一个平台,将计算机科学、机器学习和社会科学方法结合起来,设计、开发和评估可解释的人工智能系统。这期关于可解释人工智能研究的特刊的范围包括但不限于:
-设计和开发新的事后可解释的机器学习方法
-开发内在可解释的机器学习模型,在保持可解释性的同时优于黑盒方法
有效地定制现有的可解释ML方法及其输出,以满足实际用例的需求
基于应用和基于人的方法和指标,用于评估可解释的ML方法在不同环境下的有效性
我们在这个前沿研究课题中的目标是开发可解释的机器学习方法,解决四个重叠的领域。解释来证明——机器学习算法结果的原因/证明;解释改进:通过理解算法的模型决策过程,对算法进行持续改进;向控制解释:通过提供未知漏洞、流程的可见性来保护模型不产生错误结果,并通过调试帮助识别和纠正错误;向发现解释:通过解释来学习新的事实、收集信息和获得知识。
此外,我们的主题还关注可解释ML模型的评估策略,将其连接到用例、评估指标和影响。我们也希望通过从多学科的角度探索上述领域,开发新的方法来扩大该领域的边界。
本研究主题将为研究人员提供一个论坛,以提交关于可解释机器学习的新思想和技术的文章,特别是专注于人在循环的机器学习系统。它还将为跨学科研究技术的融合提供一个平台,将计算机科学、机器学习和社会科学方法结合起来,设计、开发和评估可解释的人工智能系统。这期关于可解释人工智能研究的特刊的范围包括但不限于:
-设计和开发新的事后可解释的机器学习方法
-开发内在可解释的机器学习模型,在保持可解释性的同时优于黑盒方法
有效地定制现有的可解释ML方法及其输出,以满足实际用例的需求
基于应用和基于人的方法和指标,用于评估可解释的ML方法在不同环境下的有效性
关键字:可解释人工智能,可解释机器学习,XAI,可信任人工智能,模型可解释性
重要提示:所有对本研究主题的贡献必须在其所提交的章节和期刊的范围内,如其使命声明中所定义的那样。雷竞技rebat在同行评审的任何阶段,Frontiers保留将超出范围的稿件引导到更合适的章节或期刊的权利。