关于这个研究课题
对人工智能的长期以来的梦想,两个解路径铺设:(i) neuroscience-driven神经形态计算;(2)计算机科学促进机器学习的发展。前目标利用神经科学为类人脑处理获得的见解,通过研究神经动力学的详细实现,电路、编码和学习。虽然我们理解大脑是怎样工作的仍然是非常有限的,这bio-plausible未来一般智力的方法提供了一个吸引人的承诺。相比之下,后者旨在解决实际任务通常制定作为一个成本函数与精度高,避开最神经科学细节的蛮力优化和喂养大量的数据。
的帮助下大数据(例如ImageNet),高性能处理器(例如GPU, TPU),有效的训练算法(如人工神经网络与梯度下降训练),和易于使用的设计工具(例如Pytorch, Tensorflow),机器学习取得了优越的性能在一个广泛的场景。虽然广受好评的生物合理性和低功率的优势(受益于尖峰信号和事件驱动处理),有持续的辩论和质疑关于神经形态计算,因为它通常执行比机器学习在实际任务尤其的准确性。
这种性能差距来自各种各样的因素,包括不清楚内部神经元模型/连接拓扑知识/编码方案/学习算法,离散状态空间有限的精度,和疲软的外部支持的基准数据资源/计算平台/编程工具,所有这些都不是复杂的比机器学习。目前,研究人员在不同的子域的探索神经形态计算通常有不同的优化目标,如复制单元或电路级神经行为,模拟类人脑功能在宏观层面,还是从硬件角度降低执行成本。神经形态计算仍落后于机器学习模型如果我们不能有明确的目标,只考虑应用程序的准确性。
因此,我们需要重新思考人类大脑的真正优势(如强泛化、综合处理和协会,基于内存计算)和神经形态计算的目标,而不是来面对机器学习的困境。我们应努力理解和桥梁当前神经形态之间的“鸿沟”计算和机器学习。
本研究课题旨在汇集研究包括,但不限于:
●高性能神经形态算法探索神经模型、网络体系结构、编码和学习计划;
●基准指标、数据集和神经形态计算任务;
●神经形态模型的优化处理在gpu或专门的平台上,包括推理和培训;
●设计工具来构建神经形态模型,鼓励集成接口与主流机器学习工具;
●异构系统基于神经形态计算和机器学习。
的帮助下大数据(例如ImageNet),高性能处理器(例如GPU, TPU),有效的训练算法(如人工神经网络与梯度下降训练),和易于使用的设计工具(例如Pytorch, Tensorflow),机器学习取得了优越的性能在一个广泛的场景。虽然广受好评的生物合理性和低功率的优势(受益于尖峰信号和事件驱动处理),有持续的辩论和质疑关于神经形态计算,因为它通常执行比机器学习在实际任务尤其的准确性。
这种性能差距来自各种各样的因素,包括不清楚内部神经元模型/连接拓扑知识/编码方案/学习算法,离散状态空间有限的精度,和疲软的外部支持的基准数据资源/计算平台/编程工具,所有这些都不是复杂的比机器学习。目前,研究人员在不同的子域的探索神经形态计算通常有不同的优化目标,如复制单元或电路级神经行为,模拟类人脑功能在宏观层面,还是从硬件角度降低执行成本。神经形态计算仍落后于机器学习模型如果我们不能有明确的目标,只考虑应用程序的准确性。
因此,我们需要重新思考人类大脑的真正优势(如强泛化、综合处理和协会,基于内存计算)和神经形态计算的目标,而不是来面对机器学习的困境。我们应努力理解和桥梁当前神经形态之间的“鸿沟”计算和机器学习。
本研究课题旨在汇集研究包括,但不限于:
●高性能神经形态算法探索神经模型、网络体系结构、编码和学习计划;
●基准指标、数据集和神经形态计算任务;
●神经形态模型的优化处理在gpu或专门的平台上,包括推理和培训;
●设计工具来构建神经形态模型,鼓励集成接口与主流机器学习工具;
●异构系统基于神经形态计算和机器学习。
关键字:神经形态计算、机器学习、监督/无监督学习,神经编码,模型评估
重要提示:所有贡献这个研究课题必须的范围内的部分和期刊提交,作为其使命声明中定义。雷竞技rebat前沿有权指导检查手稿更适合部分或同行评审的期刊在任何阶段。