关于这个研究课题
在过去的几年中,越来越多地使用基于ai技术支持在不同环境下的决策影响医疗,工业,和社会。虽然明显有效地处理复杂的问题,这些系统通常是不透明的,可能存在道德和法律风险。尤其是,他们很少提供了一种方式来调查和理解他们的行为,决策背后的原因,以及如何引入信任和减少偏见。这些限制是抚养问题为用户和更大的公众和肯定会抑制AI系统的采用在几个应用程序域。例如,在药物设计和发现,人工智能模型的可解释性有助于理解复杂的结构活性关系,以及确保药物设计的人工智能没有得到机会。关于ethics-related问题,社会必须面对人工智能的可能性也可用于有害讨论目的必须面对和避免未来的问题。
这个研究课题的主要目的是吸引最近的研究和创新工作重点可辩解的,值得信赖的人工智能系统的药物发现和开发,从而提高在这个领域的研究。
(非排他性)的主题列表包括:
——设计可辩解的AI系统的药物发现和开发
——信任和可解释性的AI系统的药物发现和开发
——基于ai系统使用human-interpretable特性
——评估人工智能系统的透明度和可解释性
——可判断的深度学习
-设计风格的新解释
——战略解释黑箱系统的决定
可辩解的AI -伦理
这个研究课题的主要目的是吸引最近的研究和创新工作重点可辩解的,值得信赖的人工智能系统的药物发现和开发,从而提高在这个领域的研究。
(非排他性)的主题列表包括:
——设计可辩解的AI系统的药物发现和开发
——信任和可解释性的AI系统的药物发现和开发
——基于ai系统使用human-interpretable特性
——评估人工智能系统的透明度和可解释性
——可判断的深度学习
-设计风格的新解释
——战略解释黑箱系统的决定
可辩解的AI -伦理
关键字:药物发现,药物开发,机器学习,可辩解的AI,透明和道德在人工智能,人工智能
重要提示:所有贡献这个研究课题必须的范围内的部分和期刊提交,作为其使命声明中定义。雷竞技rebat前沿有权指导检查手稿更适合部分或同行评审的期刊在任何阶段。