高阶神经处理input-adaptive MoS动态权重gydF4y2Ba2gydF4y2Bamemtransistor闩gydF4y2Ba
- 1gydF4y2Ba电子与计算机工程系,伊利诺伊大学芝加哥,芝加哥,美国gydF4y2Ba
- 2gydF4y2Ba西北大学材料科学与工程系,埃文斯顿,美国gydF4y2Ba
- 3gydF4y2Ba西北大学化学系,埃文斯顿,美国gydF4y2Ba
- 4gydF4y2Ba西北大学电子与计算机工程系,埃文斯顿,美国gydF4y2Ba
深度学习系统的日益复杂使得传统的计算技术的限制。当忆阻器是一种流行的技术深度学习加速度,只有适合古典学习层只有两个操作数,即权重和输入,同时处理。同时,提高计算效率的深度学习新兴应用,各种非传统层需要并发处理的许多操作数越来越受欢迎。例如,hypernetworks改善预测的鲁棒性,同时处理重量和输入应用程序上下文。二电极记忆电阻网格不能直接映射新兴层的高阶乘法神经交互。处理未满足的需求,我们提出使用dual-gated横梁处理memtransistors基于二维半导体金属氧化物半导体gydF4y2Ba2gydF4y2Ba。不同于记忆电阻,电阻的memtransistors可以持续程序由多个门,可以主动控制电极。因此,讨论memtransistor横梁使几个高级推理架构超越传统的被动的横梁。例如,我们表明,偷偷在memtransistor路径可以有效地抑制闩,而他们在一个被动的忆阻器横梁限制大小的可伸缩性。同样,利用门终端来抑制横梁动态权重减少偏置功率∼20% memtransistor完全连接层AlexNet闩。hypernetworks等新兴层,配置多个操作在同一横梁细胞减少运行功率gydF4y2Ba
1介绍gydF4y2Ba
越来越复杂的深层神经网络(款)和增殖应用在嵌入式计算使得传统架构和CMOS技术限制(gydF4y2Ba舒克拉et al ., 2021 bgydF4y2Ba;gydF4y2Ba纳斯林et al ., 2021gydF4y2Ba;gydF4y2Ba金正日et al ., 2020gydF4y2Ba;gydF4y2BaIliev et al ., 2019gydF4y2Ba)。因此,有一个精力充沛的兴趣探索替代技术和计算架构下实现颠覆性改善部署款严格的地区,权力,和延迟的约束。记忆电阻器是款最有前途的新兴的非易失性内存技术(gydF4y2BaPrezioso et al ., 2015gydF4y2Ba;gydF4y2Ba程et al ., 2017gydF4y2Ba;gydF4y2Ba李et al ., 2018gydF4y2Ba;gydF4y2BaAnkit et al ., 2019gydF4y2Ba;gydF4y2Ba王et al ., 2019gydF4y2Ba)。记忆电阻器可以存储的突触权重款密集多位数和可伸缩的横梁结构精度和被动电阻编程。此外,同一横梁可以用于“compute-in-memory”款的处理某些关键的计算。集成存储和计算在同一结构允许忆阻器闩,取代传统的数字加速器有限存储器带宽成为性能扩展的关键瓶颈(gydF4y2Ba陈et al ., 2016gydF4y2Ba;gydF4y2BaBasu et al ., 2018gydF4y2Ba;gydF4y2Ba金正日et al ., 2020gydF4y2Ba)。gydF4y2Ba
同时,款架构正在经历一个戏剧性的进化来提高计算效率。在过去的几年里,小说层如《盗梦空间》(gydF4y2BaSzegedy et al ., 2016gydF4y2Ba),剩余层(gydF4y2BaSzegedy et al ., 2017gydF4y2Ba),动态控制(gydF4y2Ba华et al ., 2018gydF4y2Ba)、多项式层(gydF4y2BaKileel et al ., 2019gydF4y2Ba),self-attention (gydF4y2Ba吴et al ., 2019gydF4y2Ba)和hypernetworks (gydF4y2BaHa et al ., 2016gydF4y2Ba)已经被添加到存储库的构建块款。因此,下一代款加速器的一个关键挑战是具有高通用性的处理流程有效地将各种款层映射到硬件电路。新兴架构使用额外的层超越经典的层,因此,他们可以同时关联多个变量来提高计算效率和表现能力。例如,hypernetworks (gydF4y2BaHa et al ., 2016gydF4y2Ba)集成应用程序上下文的预测,同时关联所有三个,即输入、重量、环境特性来预测输出。同样,复发性层封闭的复发性等单位(格勒乌)同时关联输入和体重对history-dependent复位向量点积使用阿达玛产品长期或短期记忆。gydF4y2Ba
而忆阻器闩的显著优点是可伸缩性gydF4y2Ba通过gydF4y2Ba二电极阵列,当调整他们使用同样的架构实施挑战等新兴款层。由于只有两个控制电极,忆阻器闩只适合经典款层只有两个操作数,即权重和投入,在给定的时间处理。忆阻器网格不能直接映射新兴款层必须同时处理多个操作数。记忆电阻器还创建了挑战的二电极控制计算可伸缩性。例如,忆阻器闩上混合信号操作容易寄生电流路径形成的动态取决于输入和权重向量。抑制这些通路,忆阻器细胞横梁通常与额外的选择器组件集成晶体管或二极管等。虽然选择器提高横梁的健壮性处理,额外的电路元素每个细胞牺牲了横梁可伸缩性和姿势在制造其他限制材料的兼容性。gydF4y2Ba
在这项工作中,我们提出了一个基于神经网络纵横dual-gated memtransistors (gydF4y2Ba图1gydF4y2Ba)来克服的局限性忆阻器闩新兴深度学习的高阶处理层。不像记忆电阻器,memtransistors多端gate-tunable活跃元素的非易失性阻力可以持续程序但不稳定的通道电阻也可以适应动态的栅电极。的gate-tunability memtransistors还提供了前所未有的电路和microarchitecture-level开机会神经闩,特别是对于新兴深度学习层依赖于高阶乘法交互。gydF4y2Ba
图1gydF4y2Ba。Dual-gated memtransistors:gydF4y2Ba(一)gydF4y2Ba示意图的dual-gated memtransistor单层金属氧化物半导体gydF4y2Ba2gydF4y2Ba。gydF4y2Ba(B)gydF4y2Ba顶视图横梁单元的示意图。gydF4y2Ba
利用dual-gated金属氧化物半导体gydF4y2Ba2gydF4y2Bamemtransistors对于神经处理,我们在这项工作中的重要贡献和新兴古典神经层如下:gydF4y2Ba
•经典层memtransistor闩:我们提出一个高阶神经网络处理方法使用dual-gated memtransistor横梁在时间和电荷域。在我们的方案中,时域输入一点应用行操作,输出是积累电荷域列。拟议中的gate-tunable神经处理显著提高横梁的可伸缩性和最小化混合信号处理和外围设备的管理费用。例如,我们利用门可调谐性memtransistors消除寄生电流路径的横梁。当time-encoded输入一行很低,memtransistors在各自的行配置非常高阻状态使用门控制抑制寄生电流路径。相比之下,传统的忆阻器闩需要额外的选择器在每个单元控制偷偷路径和/或仅限于小横梁尺寸。此外,通过使用gate-tunability memtransistors, conductance-emulated横梁权重动态抑制基于输入模式的总体预测精度不受影响但横梁的总体偏置电源可以最小化。尽管类似input-adaptive体重抑制也是可行的忆阻器闩,只有沉重的重量控制可以实现无明显复杂物理设计。同时,gate-tunability memtransistors自然允许soft-gating网络权重的开幕更多优秀的机会横梁重量适应不牺牲准确性。gydF4y2Ba
•新兴层memtransistor闩:我们讨论映射方案新兴高阶神经层memtransistor闩,即hypernetworks和history-dependent控制机制在多空词记忆(LSTM)和封闭的复发性单位(格勒乌)。实现显示的显著的效率memtransistor闩实现新兴层比传统忆阻器闩。双重门控制memtransistor允许二次订单乘法实现在单一设备,减少操作的总数和处理模块。例如,对于hypernetworks,二次乘法在memtransistor横梁gydF4y2Ba
第二部分论述了背景memtransistors在制造和操作特点。第三节讨论的优点memtransistor闩上古典神经网络层。第四节礼物的好处memtransistor闩Hypernetworks等新兴神经网络层和LSTM memtransistor网格。最后,第五节总结了我们关键的进步和总结。gydF4y2Ba
2 Gate-tunable dual-gated memtransistor闩gydF4y2Ba
在先前的作品(gydF4y2Ba从et al ., 2018gydF4y2Ba;gydF4y2Ba李et al ., 2020gydF4y2Ba),我们的合作者从Hersam演示了一个新颖的gate-tunable记忆性系统从多晶memtransistor-fabricated单层金属氧化物半导体gydF4y2Ba2gydF4y2Ba与SiOgydF4y2Ba2gydF4y2Ba作为闸极介电层底部。对个人dual-gated memtransistor (gydF4y2Ba图1一个gydF4y2Ba)、排水和源电极被电子束光刻图案的金属氧化物半导体和发射过程gydF4y2Ba2gydF4y2Ba合成的化学汽相淀积。这是紧随其后的是金属氧化物半导体的模式gydF4y2Ba2gydF4y2Ba渠道反应离子刻蚀(通道长度和宽度W是900和700 nm,分别)。上平巷电介质的艾尔gydF4y2Ba2gydF4y2BaOgydF4y2Ba3gydF4y2Ba(30 nm厚的)增长了原子层沉积。300 nm -厚SiOgydF4y2Ba2gydF4y2Ba作为闸极介电层的掺杂硅晶片作为全球底门。的dual-gated memtransistor横梁是捏造使用相同的通道几何,金属电极的厚度,电介质层的厚度随着个人设备。gydF4y2Ba图1 bgydF4y2Ba显示了每个节点的通道尺寸的捏造横梁。gydF4y2Ba图1 cgydF4y2Ba显示了具有代表性的显微照片dual-gated 10-by-9横梁数组。源和漏终端线交叉、并行运行,memtransistor更高密度的细胞。顶部门线源/漏背道而驰的终端。其他各种适应memtransistors已经讨论了在我们之前的工作gydF4y2Ba燕x et al ., 2021gydF4y2Ba;gydF4y2Ba元et al ., 2021gydF4y2Ba;gydF4y2Ba从et al ., 2015gydF4y2Ba。gydF4y2Ba
2.1操作原则的dual-gated memtransistorgydF4y2Ba
图2一个gydF4y2Ba循环显示特征的记忆性和测量双dual-gated金属氧化物半导体的电阻开关特性gydF4y2Ba2gydF4y2Bamemtransistor不同底部闸门偏见VgydF4y2BaBGgydF4y2Ba有一个浮动的门。设备最初处于低阻状态(LRS)和开关为高阻状态(小时)在正向偏压(漏极电压VgydF4y2BaDSgydF4y2Ba> 0),代表一个重置的过程。相比之下,设备发生(即一组过程。,从小时在反向偏压(V LRS)gydF4y2BaDSgydF4y2Ba< 0)。顺时针切换设置/复位过程和反向整流极性表明电荷注入的瓶颈发生在消耗电极。因此占主导地位的电阻切换机制发生在正向偏压肖特基二极管(即。重置的流失联系下,设置源接触)。这与占主导地位的电阻切换机制在反向偏置肖特基二极管源接触single-gated memtransistors (gydF4y2Ba从et al ., 2018gydF4y2Ba,gydF4y2Ba2015年gydF4y2Ba),如所示gydF4y2Ba图2 bgydF4y2Ba。可能的物理机制,详细讨论了在不同的行为gydF4y2Ba李et al。(2020)gydF4y2Ba。肖特基势垒的可逆和动态调制可以归因于迁移的缺陷或电荷捕获事件附近的联系人在底层的金属氧化物半导体gydF4y2Ba2gydF4y2Ba或覆盖艾尔gydF4y2Ba2gydF4y2BaOgydF4y2Ba3gydF4y2Ba。最重要的是,dual-gated memtransistor (gydF4y2Ba李et al ., 2020gydF4y2Ba)使不仅gate-tunable学习,像single-gated memtransistor (gydF4y2Ba从et al ., 2018gydF4y2Ba),但也允许有效扩展成一个横梁阵列配置偷偷电流的抑制,与single-gated memtransistor。工作之前Memtransistor-based飙升神经元实现进行了讨论gydF4y2Ba元et al ., 2021gydF4y2Ba;gydF4y2Ba燕et al ., 2021 bgydF4y2Ba而本文侧重于高阶深度学习使用设备。gydF4y2Ba
图2gydF4y2Ba。Memtransistor特点和机制:gydF4y2Ba(一)gydF4y2Ba漏极电流(我gydF4y2BaDSgydF4y2Ba(V)与排水的偏见gydF4y2BaDSgydF4y2Ba)dual-gated金属氧化物半导体的特性gydF4y2Ba2gydF4y2Bamemtransistor。门可调记忆性切换是在不同的底门偏见(VgydF4y2BaBGgydF4y2Ba),而顶部门是浮动的。gydF4y2Ba(B)gydF4y2Ba左:原理图显示一个肖特基接触和金属氧化物半导体gydF4y2Ba2gydF4y2Ba漏极附近的能带弯曲低电阻状态(LRS)。gydF4y2BaEgydF4y2BaFgydF4y2Ba费米能级。右:原理图显示增加出发地区附近的排水电极在高阻状态(小时)。与许可复制(gydF4y2Ba从et al ., 2018gydF4y2Ba)。作者版权2018年,自然由施普林格出版。gydF4y2Ba
2.2单栅memtransistor造型特征gydF4y2Ba
在gydF4y2Ba从et al ., 2018gydF4y2Ba下,我们已经讨论了memtransistor建模一个适应设备的门。这里提供了一个简短的总结。我们memtransistor行为通过集成模型的数学形式主义记忆性与电荷传输模型系统的肖特基势垒场效应晶体管(SB-FET)。记忆性系统被定义为:gydF4y2Ba
在哪里gydF4y2BatgydF4y2Ba是时间,gydF4y2BawgydF4y2Ba是一个内部状态变量,gydF4y2BaVgydF4y2Ba和gydF4y2Ba我gydF4y2Ba输入(电压)和输出(当前)。在亚阈值机制,在SB-FET由热电子发射电荷传输:gydF4y2Ba
在哪里gydF4y2Ba一个gydF4y2Ba∗理查森是2 d等效常数,这个词gydF4y2BaTgydF4y2Ba3/2gydF4y2Ba来自于2 d模型(而不是gydF4y2BaTgydF4y2Ba2gydF4y2BaΦ3 d)gydF4y2BabgydF4y2Ba势垒高度。SB-FET模型与记忆性相结合的形式,我们得到:gydF4y2Ba
在这里,gydF4y2Ba一个gydF4y2Ba,gydF4y2BaDgydF4y2Ba,gydF4y2BaEgydF4y2Ba,gydF4y2BacgydF4y2BargydF4y2Ba,gydF4y2BacgydF4y2BavdgydF4y2Ba,gydF4y2BapgydF4y2Ba,ΔgydF4y2BangydF4y2Ba拟合参数。我们为了简便起见,我们省略的细节上面的方程,可以在我们之前的工作gydF4y2Ba从et al ., 2018gydF4y2Ba。gydF4y2Ba
2.3的投影dual-gated memtransistor扩展维度gydF4y2Ba
维度的原型memtransistors没有按达到实用的神经处理低功耗的优点。虽然我们的设备正在进行缩放的努力(gydF4y2Ba李et al ., 2020gydF4y2Ba),在这项工作中,我们项目dual-gated memtransistor节点方法几十纳米研究的潜在好处crossbar-based神经处理使用模拟。制造原型,non-volatility阻力状态的实验验证起源于肖特基势垒高度调制(某人)。因此,研究纳米尺度的设备特征,形式主义的非平衡格林函数积分(NEGF)的电流传导和某人高度调制。NEGF-based模型可以保留航空电子的波(量子力学)字符扩展维度,因此,它比经典电流传输方程更准确。gydF4y2Ba
图3一gydF4y2Ba的示意图显示dual-gated memtransistor 7纳米通道长度的模拟使用NEGF。图中的缩放装置用于随后的讨论。设备形成的通道使用单层金属氧化物半导体gydF4y2Ba2gydF4y2Ba。前大门上有图案的2 nm厚gydF4y2Ba2gydF4y2BaOgydF4y2Ba3gydF4y2Ba介质。制造原型,明白了gydF4y2Ba图1gydF4y2Ba,金属氧化物半导体gydF4y2Ba2gydF4y2Ba是生长在SiOgydF4y2Ba2gydF4y2Ba和掺杂硅层用作底门。适当,底部(或)门10 nm厚的SiO之下gydF4y2Ba2gydF4y2Ba被认为是在适应。在各种某人(Δ高度gydF4y2BaϕgydF4y2BaBgydF4y2Ba)编程,gydF4y2Ba图3 bgydF4y2Ba显示我gydF4y2BaDgydF4y2Ba- vgydF4y2BaGSgydF4y2Ba按比例缩小的设备在V的特性gydF4y2BaDSgydF4y2Ba= 0.3 V和gydF4y2Ba图3 cgydF4y2Ba显示我gydF4y2BaDgydF4y2Ba- vgydF4y2BaDSgydF4y2Ba特征在顶部门潜力为0.5 V。由于热电子emission-based电流传导,我gydF4y2BaDSgydF4y2Ba通过memtransistor指数敏感栅电压VgydF4y2BaGSgydF4y2Ba。在不同编程配置,我gydF4y2BaDSgydF4y2Ba改变大小的一到三个订单切换门从0.5 V电压为零。因此,抑制通路,memtransistor横杆可以利用gate-tunability的我gydF4y2BaDSgydF4y2Ba;这些特征的优势将随后分析了更多的细节。gydF4y2Ba
图3gydF4y2Ba。Memtransistor特点模拟:gydF4y2Ba(一)gydF4y2Ba扩展维度memtransistor NEGF下评估。gydF4y2Ba(B)gydF4y2Ba我gydF4y2BaDSgydF4y2Ba- - - - - -gydF4y2BaVgydF4y2BaGSgydF4y2Ba以不同的肖特基势垒高度(gydF4y2BaVgydF4y2BaDSgydF4y2Ba= 0.3 V)。顶部的潜在门底部是全面而潜在的门设置为0 V。gydF4y2Ba(C)gydF4y2Ba我gydF4y2BaDSgydF4y2Ba- vgydF4y2BaDSgydF4y2Ba以不同的某人的高度。顶部的潜在门是0.5 V,后门是零。gydF4y2Ba
2.4竞争突触相比内存技术gydF4y2Ba
表1gydF4y2Ba比较该技术对竞争突触神经闩内存技术。收集其他技术的特征和基准gydF4y2Ba2016年陈gydF4y2Ba;gydF4y2Ba崔et al ., 2020gydF4y2Ba;gydF4y2BaCai et al ., 2017gydF4y2Ba;gydF4y2Ba于2016年陈gydF4y2Ba;gydF4y2BaEndoh et al ., 2016gydF4y2Ba;gydF4y2BaMladenov 2019gydF4y2Ba,gydF4y2Ba2020年gydF4y2Ba;gydF4y2BaMladenov基里洛夫2013gydF4y2Ba。memtransistors多端控制两个关键优势,从而不再需要专门的选择器设备,和潜在的更好的横梁密度由于最高级门静电学甚至在sub-10纳米尺度。在演示原型gydF4y2Ba从et al ., 2018gydF4y2Ba;gydF4y2Ba李et al ., 2020gydF4y2Ba;gydF4y2Ba从2020年HersamgydF4y2Ba;gydF4y2Ba从et al ., 2017gydF4y2Ba;gydF4y2Ba燕x et al ., 2021gydF4y2Ba小时/ LRS比率、保留和耐力已经比得上best-reported特征之间的非易失性记忆(NVMs)。虽然我们目前的原型尺寸更大,预计在sub-10纳米通道长度、写电压小于2 V与延迟小于10纳秒。gydF4y2Ba
此外,memtransistors关键优势双重门突触晶体管等gydF4y2Ba燕m . et al ., 2021gydF4y2Ba;gydF4y2Ba田et al ., 2019gydF4y2Ba。在memtransistors,非易失性脉冲电阻开关是通过下水道的偏见。因此,门的终端可以负担得起的可调谐性电阻状态,实现多态记忆或改变在神经网络训练学习速率。重要的是,这就能达到第二个门,可以使用的选择器来抑制寄生电流扩展网络。所以,第二栅作为晶体管1 t1m架构的忆阻器闩而第二个门可以控制学习行为。在另一方面,dual-gated突触晶体管gydF4y2Ba燕m . et al ., 2021gydF4y2Ba;gydF4y2Ba田et al ., 2019gydF4y2Ba实现非易失性内存状态使用脉冲的盖茨,而不是消耗电极。所以,第二个门可以用来改变学习速率或作为一个选择,但不能两者兼得。因此,dual-gated memtransistors允许一个额外的控制电极中不可行dual-gated突触晶体管。这些差异也被概述在详细对比不同dual-gated突触设备包括铁电设备的评论文章gydF4y2Ba燕x et al ., 2021gydF4y2Ba。gydF4y2Ba
3经典神经层memtransistor闩gydF4y2Ba
本节研究的优势dual-gated memtransistor闩古典深度学习层。我们首先讨论时间/ charge-domain神经处理方案简化了横梁处理外围设备。随后,我们将讨论如何控制双栅memtransitor横杆可以利用动态抑制偷偷路径和层权重神经处理的能源效率最大化。gydF4y2Ba
3.1横梁结构和时域处理gydF4y2Ba
图4gydF4y2Ba显示了横梁的体系结构,其中每个细胞由dual-gated memtransistor。连续消耗电极的memtransistors一起共享和控制。memtransistors沿着列的源电极也共享。双栅网格形成内横梁。大门的memtransistors共享一行,一点创建一个行操作前门网格。Back-gates沿着列共享,形成一个网格列后门。可比memtransistor闩是捏造的gydF4y2Ba冯et al ., 2021gydF4y2Ba。权重矩阵映射在memtransistor网格编程每个横梁元素的肖特基势垒的高度(某人)。一点输入向量应用行操作的排水结束memtransistors在时域使用数字脉冲变换器(T-DAC)。T-DAC由数字组件数字比较器和寄存器来存储横梁inputs-where比较数字计数器的计数和存储输入。一个活跃的高信号插入如果计数小于输入。gydF4y2Ba
随后,在横梁上作用于time-encoded输入信号对存储的重量。每个memtransistor编程,使其电导(ggydF4y2BaijgydF4y2Ba)应用time-encoded输入脉冲其流失源电极之间映射的重量大小成正比gydF4y2BaijgydF4y2Ba。自电导memtransistor只能是积极的,而权重矩阵值可以包括积极的和消极的两个横梁cells-positive和负重量细胞是专门为每个权重矩阵条目,如图。积极或消极的权重矩阵的图中显示条目写在相应的细胞,而另一个细胞编程到最低电导。gydF4y2Ba
当输入脉冲应用,每个memtransistor注入电流gydF4y2BaijgydF4y2Ba=我gydF4y2BaDSgydF4y2Ba(gydF4y2BaϕgydF4y2BaijgydF4y2Ba)只要一列脉冲是活跃的。在这里,gydF4y2BaϕgydF4y2BaijgydF4y2Ba是编程的memtransistor肖特基势垒的高度吗gydF4y2BaijgydF4y2Ba行和jgydF4y2BaijgydF4y2Ba列,程序根据相应的权重值wgydF4y2BaijgydF4y2Ba映射的十字路口。沿着一条列,列电流集成电容CgydF4y2BaINTgydF4y2Ba使用一个电荷积分器电路的右边gydF4y2Ba图4gydF4y2Ba。横梁的末尾处理,在集成电容器发展的潜力gydF4y2Ba∑TgydF4y2Ba我gydF4y2Ba×gydF4y2Ba我gydF4y2BaijgydF4y2Ba/gydF4y2BaCgydF4y2BaINTgydF4y2Ba。在这里,gydF4y2BaTgydF4y2Ba我gydF4y2Ba的脉宽编码输入向量元素的行“我”和我吗gydF4y2BaijgydF4y2Ba我是当前memtransistor吗gydF4y2BaijgydF4y2Ba行和jgydF4y2BaijgydF4y2Ba列。前端放大器在电荷积分器执行虚拟地面的来源memtransistors改善当前集成的可靠性。gydF4y2Ba
一个集成电荷可以暂时使用电压保持细胞显示右边的图。把手机设计使用同源性疾病(CS)放大器和NMOS (MgydF4y2BaN1gydF4y2Ba)和数量(MgydF4y2BaP2gydF4y2Ba)输入阶段适应轨到轨的积分器的输出和反馈电容(CgydF4y2Baf1gydF4y2Ba和CgydF4y2Baf2gydF4y2Ba)。charge-integrator的潜在产出下降随着时间的推移,由于横梁的泄漏。这样的退化将改变米的偏压gydF4y2BaN1gydF4y2Ba和MgydF4y2BaP2gydF4y2Ba增加,导致CS的输出阶段由于负面反馈和反馈电容导致潜在的差异。由此产生的电流反馈电容器由于电位差恢复charge-integrator输出,从而提高了人们把手机的保留时间。gydF4y2Ba
时域数字模拟转换器的复杂性(T-DAC)和voltage-domain模拟到数字转换器(ADC)gydF4y2Ba图4gydF4y2Ba成指数增加精度较高的输入和输出处理。Memtransistors只能支持有限精度重量存储。因此,神经的操作精度横梁本质上是有限的。更高精度的输入和权重位片可以缓解精度可伸缩性挑战,如所示gydF4y2Ba图4gydF4y2Ba。例如,8位输入和重量值和四个操作周期可以分成一些时间段,为四位部分可用于处理。尽管横梁的延迟增加,其设计和实现成为显著简化。类似的忆阻器和其他非易失性内存的神经加速器之前也一直在研究工作gydF4y2BaTrivedi Mukhopadhyay 2014gydF4y2Ba;gydF4y2Ba玛纳斯Trivedi 2016gydF4y2Ba;gydF4y2BaShafiee et al ., 2016gydF4y2Ba;gydF4y2Ba王et al ., 2016gydF4y2Ba;gydF4y2BaMikhailenko et al ., 2018gydF4y2Ba;gydF4y2Ba纳斯林et al ., 2019gydF4y2Ba;gydF4y2Ba费尔南多et al ., 2020gydF4y2Ba;gydF4y2Ba马et al ., 2020gydF4y2Ba;gydF4y2Ba纳斯林et al ., 2020gydF4y2Ba;gydF4y2Ba舒克拉et al ., 2021 agydF4y2Ba)。然而,我们随后将重点讨论如何dual-gated memtransistor电网的控制可以提供独特的开的机会不能使用当前memristor-based横梁的设计。gydF4y2Ba
3.2横梁可伸缩性与闸控偷偷路径抑制gydF4y2Ba
一个关键挑战传统横梁伸缩寄生电流路径的存在。考虑前面讨论了时域神经处理在横梁上gydF4y2Ba图5一个gydF4y2Ba。作为一个向量的应用时域输入行,电荷域处理数组中计算输入vector-weight矩阵产品一起列在电压模式下,必须向下处理和传输的数字化。因为典型的模拟-数字转换器(ADC)需要大量的面积/能量开销,集成并行ADC在每个横梁列有过多的开销。因此通常情况下,只有数量有限的集成adc将在所有横梁列顺序数字化他们多路输出。在这种ADC复用,列举行的模拟输出电荷积分器电荷泄漏下容易降解。因此,减少权力横梁的偏见在ADC的多路复用,只有有限数量的列输出(如16在横梁128列)计算在一次性的步骤中,剩下的横梁列左浮动,以防止泄漏的力量。然而,浮动横梁列可以形成通路影响输出精度,而这样偷偷路径的数量急剧增加而增加横梁的大小。gydF4y2Ba
图5gydF4y2Ba。memtransistor横梁寄生电流路径分析:gydF4y2Ba(一)gydF4y2Ba偷偷路径在横梁可以出现由于实际问题如列多路复用与有限数量的adc需要没有(浮动)列。忆阻器和memtransistor闩:gydF4y2Ba(B)gydF4y2Ba平均和最差情况标量产品误差增加横梁的大小,和gydF4y2Ba(C)gydF4y2Ba平均偏置功率如果没有横梁列是基于忆阻器闩。gydF4y2Ba
栅偏压memtransistor横梁,横梁元素可以用来抑制这种偷偷动态路径。gydF4y2Ba图5一个gydF4y2Ba显示该方案从T-DAC定时脉冲应用于排水和memtransistor的门。T-DAC脉冲禁用,栅电压的memtransistors行是被从0 V−0.5 V,从而增加他们的抵抗数量级(见gydF4y2Ba图3 bgydF4y2Ba),有效地抑制通路通过浮动memtransistor列。虽然类似的实现可用于记忆电阻横杆通过集成晶体管在每个横梁细胞(gydF4y2Ba·阿里·齐达内et al ., 2014gydF4y2Ba;gydF4y2Ba燕et al ., 2016gydF4y2Ba;gydF4y2BaHumood et al ., 2019gydF4y2Ba;gydF4y2Ba施et al ., 2020gydF4y2Ba),memtransistors实现这一在一个单一的电路装置。gydF4y2Ba
图5 bgydF4y2Ba显示了均方根(RMS) memristor-based横梁阵列误差对memtransistor横梁数组在门电压利用动态抑制寄生电流路径。列出了各种仿真参数gydF4y2Ba表2gydF4y2Ba。Memtransistors W / L = 10 nm / 7海里用于每个横梁细胞gydF4y2BaϕgydF4y2BaBgydF4y2Ba编程在∼150 mV drain-to-source电流变化的窗口gydF4y2Ba我gydF4y2BadsgydF4y2Ba从1 - 100 nA排水VgydF4y2BaDgydF4y2Ba。当输入从T-DAC失效,VgydF4y2BaDgydF4y2Ba沿行memtransistors接地和VgydF4y2BaGgydF4y2Ba偏见在−0.5 V截止溜如上所述路径。一个等效电阻编程范围假定记忆电阻器在memtransistors特别突出门可调谐性的优势。时机dac操作4比特精度和最小时间步长为0.2 ns。6-Bit精密ADC与横梁和一个集成ADC操作消耗8.3 fJ基于能量模型gydF4y2Ba金斯伯格2007年gydF4y2Ba。模拟使用香料进行。仿真结果表明平均和最糟糕的性能超过几百模拟随机输入和权重向量。阴影所示的误差分布是红色和绿色的颜色记忆电阻和memtransistor闩。gydF4y2Ba
注意,记忆电阻的寄生电流路径问题恶化横杆与横梁尺寸增加,导致退化的输出,从而限制了规模最大的横梁,可以可靠地处理。提出memtransistor横梁上操作,我们可以控制寄生电流仪器噪声地板由于每个门连接到输入。因此,误差几乎独立于数组的大小,只是影响non-idealities等外围设备的有限运放增益(∼100在我们的例子中)。此外,平均功耗可以显著减少dual-gated memtransistor横梁,所示gydF4y2Ba图5 cgydF4y2Ba。如果这样偷偷的路径被抑制记忆电阻的接地没有列横梁,由此产生的浪费在偏压电源总是规模与横梁尺寸所示gydF4y2Ba图5 cgydF4y2Ba。在避免对地面的要求没有横梁列,memtransistor横杆可以达到更好的能源效率比忆阻器闩。gydF4y2Ba
3.3输入自适应深度学习与动态权重gydF4y2Ba
input-adaptive推理变得显著改善深度学习的能源效率。input-adaptive推理的中心思想是动态地重新调整输入输出连接在每一层基于输入特征和复杂性。例如,复杂的输入模式可以处理更复杂的推理模式,即:,重量和更多的抽象级别(层)款。相比之下,简单的输入可以操作的低复杂度模型用更少的重量保持较高的预测精度。等输入自适应深度学习、刘等人。gydF4y2Ba刘邓2018gydF4y2Ba讨论了动态神经网络(DgydF4y2Ba2gydF4y2Ba神经网络),在每个深度学习输入输出连接层动态地根据输入特性下降。通道控制神经网络进行了讨论gydF4y2Ba华et al。(2019)gydF4y2Ba通道,从而减少对分类结果进行标识,并动态地跳过。提出了动态slimmable网络gydF4y2Ba李et al ., 2021gydF4y2Ba探索一个更好的映射效率在这种连续保持过滤器存储静态和动态修剪的记忆。gydF4y2Ba
然而,大多数input-adaptive推理技术适用于忆阻器闩显示显著的复杂性缺乏相关训练记忆电阻的动态可调整性特征。因为记忆电阻的电阻不能在运行时,调制gydF4y2Ba很难控制gydF4y2Ba输出神经元可以实现。在这种艰难的选通,一个输出神经元完全下降(封闭)根据输入模式,从而可以节省相关的偏见上电突触连接。然而,努力控制神经元需要添加离散优化步骤的学习过程。因此,计算上开销很高的离散优化方法(如加强gydF4y2BaCai et al ., 2018gydF4y2Ba)或强化学习gydF4y2Ba刘邓2018gydF4y2Ba需要哪些显著增加了培训工作负载。虽然硬款神经元的控制是必不可少的记忆电阻网格,利用他们的门的可调性,memtransistor网格可以使用gydF4y2Ba软控制gydF4y2Ba增强的神经元input-adaptive偏见节电的机会以及简化学习过程。软控制下,一个输出神经元可以通过门动态缩小其突触强度的可调谐性memtransistor网格。自偏压电源weight-input产品在一个输出神经元突触相关的总电导成正比,可以节省相关的偏压电源,按比例缩小其突触权重。我们将讨论如何双栅控制memtransistor闩input-adaptive横梁重量等可以有效地实现调制。更重要的是,我们将讨论如何管理简化了双栅input-adaptive推理训练过程。gydF4y2Ba
在gydF4y2Ba图6 bgydF4y2Ba,可以考虑input-adaptation神经元gydF4y2Ba我gydF4y2Ba,1gydF4y2Ba到一个gydF4y2Ba我gydF4y2Ba,gydF4y2BaNgydF4y2Ba交错纵横映射层与输出神经元gydF4y2Ba我gydF4y2Ba一个神经网络。input-adaptive横梁能量最小化,输出神经元的方案遵循“soft-suppression”通过控制他们的列后门基于适应神经元的输出电压。如果一个适应神经元抑制输出神经元,其输出电压很低,减少输出神经元的列中所有的重量。我们认为基于块输入适应那里的神经元gydF4y2BaijgydF4y2Ba调节列门电压的输出神经元相应块BgydF4y2BaijgydF4y2Ba图中所示。两个阶段的input-adaptation显露出来。在第一阶段,输出神经元的抑制电压计算通过适应神经元同时禁用定期输出神经元使用列门电压,即。,VgydF4y2BaBGgydF4y2Ba= 0 V。适应神经元gydF4y2BaijgydF4y2Ba适应执行标量积层的权重矩阵和层输入ygydF4y2Ba我gydF4y2Ba−1gydF4y2Ba计算适应电压相应的块。在第二个阶段,层输出计算通过抑制电压输出神经元的网格门,如图。因此,权重矩阵gydF4y2BaWgydF4y2Ba我gydF4y2Ba的层gydF4y2Ba我gydF4y2Ba是适应gydF4y2Ba
图6gydF4y2Ba。动态推理路径:gydF4y2Ba(一)gydF4y2BaInput-adaptive“软”抑制神经元。gydF4y2Ba(B)gydF4y2Ba在横梁的计算input-adaptive抑制因素。输入层应用于适应神经元计算主层神经元的抑制因素。使用右侧所示的横梁结构,使用垂直门应用网格的抑制因素。gydF4y2Ba(C)gydF4y2BaCIFAR10数据集,input-adaptive神经重量计算AlexNet全层的抑制因素。gydF4y2Ba(D)gydF4y2BaBias-power储蓄与越来越多的适应神经元AlexNet全层。gydF4y2Ba
值得注意的是,由于重量、软抑制网络完全是可微的,从而不介绍训练复杂性相比,典型的款。在gydF4y2Ba图6 cgydF4y2Ba,我们认为一个全层从AlexNet大小为4096×4096,与CIFAR10训练数据集,并应用上述input-adaptive推理神经权重的软控制。适应神经元的权重gydF4y2Ba一个gydF4y2BaijgydF4y2Ba被修改原始重量训练矩阵gydF4y2BaWgydF4y2Ba我gydF4y2Ba来gydF4y2Ba
4高阶神经网络memtransistor闩gydF4y2Ba
几个新图层样式款正在开发以提高计算效率和捕获多个感应偏见在深入学习。明显的趋势在新兴款图层样式是他们利用高阶之间的交互操作数。例如,对于输入gydF4y2BaxgydF4y2Ba、体重矩阵gydF4y2BaWgydF4y2Ba和激活函数gydF4y2BafgydF4y2Ba(),一个经典的一阶款层计算gydF4y2BafgydF4y2Ba(gydF4y2Ba的天气gydF4y2Ba)。相比之下,一个二阶款层hypernetworks计算gydF4y2Ba
图7gydF4y2Ba。Hypernetworks memtransistor横梁:gydF4y2Ba(一)gydF4y2Ba实现Hypernetworks memtransistor横梁和比较记忆电阻crossbar-based映射gydF4y2Ba(B)gydF4y2Ba。上下文向量gydF4y2BazgydF4y2Ba一点应用行操作为脉宽调制信号和输入向量gydF4y2BaxgydF4y2Ba列应用。负责整合所有输出列合并,为数字化传递给ADC。忆阻器横梁,相比显著计算操作的数量最小化。gydF4y2Ba(C)gydF4y2Ba比较记忆电阻之间的横梁和外围能源和memtransistor横杆为64 - - 64权重矩阵。gydF4y2Ba
在一个hypernetworkgydF4y2BaHa et al ., 2016gydF4y2Ba,一个神经网络gydF4y2BaggydF4y2Ba生成另一个网络的权重gydF4y2BafgydF4y2Ba给出一些背景gydF4y2BazgydF4y2Ba。Hypernetworks发现关键成功在传统款生成建模、持续学习、神经机器翻译gydF4y2BaKlocek et al ., 2019gydF4y2Ba;gydF4y2BaEhret et al ., 2020gydF4y2Ba;gydF4y2BaSpurek et al ., 2020gydF4y2Ba;gydF4y2Ba苏亚雷斯2017gydF4y2Ba。之前的工作gydF4y2Ba贾古玛et al ., 2019gydF4y2Ba表明处理hypernetworks,事实上,相当于高阶处理的输入gydF4y2BaxgydF4y2Ba和上下文gydF4y2BazgydF4y2Ba通过三维张量体重gydF4y2Ba
图7 bgydF4y2Ba显示了一个比较映射hypernetworks的忆阻器横梁来说明memtransistor网格等高级处理的优点。因为记忆电阻器只能执行一阶矩阵向量乘法,hypernetwork计算必须分成多个步骤gydF4y2Ba图7 bgydF4y2Ba。因此,首先,weight-slicegydF4y2BaWgydF4y2Ba我gydF4y2Ba处理对time-encoded上下文向量gydF4y2BazgydF4y2Ba使用一个忆阻器横梁。然后,列输出数字化,与输入向量乘以数字gydF4y2BaxgydF4y2Ba。最后,产品和比特数字积累。对于一个gydF4y2BangydF4y2Ba×gydF4y2Ba米gydF4y2Ba×gydF4y2BakgydF4y2Ba份三维张量体重gydF4y2Ba
考虑一个特定的测试用例gydF4y2Ba
在封闭的递归神经网络(RNN),如长期短期记忆(LSTM)gydF4y2Ba1997年的Hochreiter和。施密德胡贝尔表示gydF4y2Ba和封闭的复发性单位(格勒乌)gydF4y2BaRavanelli et al ., 2018gydF4y2Ba,之前的输出状态的作用gydF4y2BahgydF4y2BatgydF4y2Ba−1gydF4y2Ba目前的预测gydF4y2BahgydF4y2BatgydF4y2Ba封闭的基于预测从忘记网络吗gydF4y2BargydF4y2BatgydF4y2Ba使用阿达玛产品,即,gydF4y2BahgydF4y2BatgydF4y2Ba−1gydF4y2Ba⊙gydF4y2BargydF4y2BatgydF4y2Ba。gydF4y2Ba图8gydF4y2Ba显示了这样通过耦合memtransistor闩门。在这里,第一横梁XbargydF4y2Ba1gydF4y2Ba计算的控制因素gydF4y2BargydF4y2BatgydF4y2Ba。XbargydF4y2Ba2gydF4y2Ba是一个特殊目的的横梁,两门线并行的一点运行行操作。值得注意的是,通过直接耦合XbargydF4y2Ba1gydF4y2Ba和XbargydF4y2Ba2gydF4y2Ba从Xbar,数字转换的控制因素gydF4y2Ba1gydF4y2Ba对XbargydF4y2Ba2gydF4y2Ba不需要,控制可以应用于电压域本身的因素。激活层,乙状结肠等控制因素,可以实现使用一个运算跨导放大器(OTA)。相反,其他数字乘法和域转换将是必要的,如果通过忆阻器横梁控制映射。由于这样的综合处理,gydF4y2Ba表4gydF4y2Ba在64×64随机LSTM /格勒乌矩阵的随机输入,memtransistors平均消费gydF4y2Ba
图8gydF4y2Ba。其他高阶新兴层memtransistor横梁:gydF4y2Ba(一)gydF4y2Ba阿达玛产品的实现层LSTM和格勒乌使用耦合memtransistor闩。输出从左横梁直接应用到网格门的横梁,从而保存中间数字化的开销。gydF4y2Ba(B)gydF4y2Ba能源对比记忆电阻和memtransistor-based阿达玛门控的实现机制。gydF4y2Ba
同样,注意机制可以有效地实现在memtransistor闩。尤其值得一提的是,最近的研究已表明非常简单的神经机制架构由完全的关注gydF4y2BaVaswani et al ., 2017gydF4y2Ba。一个关注函数可以被描述为一个查询映射和一组键值对输出。多头关注Vaswani et al。(2017),每一层的关注gydF4y2Ba我gydF4y2Ba计算gydF4y2Ba
5的结论gydF4y2Ba
我们已经讨论了新兴的趋势在最近的深度学习高阶神经网络层和输入自适应深度学习依赖于高阶乘法交互。由于记忆电阻器两端被动元器件,他们无法有效地模仿这样的高阶计算,不能利用的算法的创新。克服这个关键硬件技术差距和新兴的神经网络层架构,我们已经讨论了神经处理dual-gated memtransistor闩。由于双栅控制,memtransistor横杆可以动态地适应通过抑制通路或调整对输入特征。此外,双栅memtransistors允许映射的可调谐性高阶计算在一个横梁细胞,从而导致显著减少模拟-数字转换和横梁偏压电源。gydF4y2Ba
数据可用性声明gydF4y2Ba
最初的贡献提出了研究中都包含在本文/辅料,可以针对相应的作者进一步询问。gydF4y2Ba
作者的贡献gydF4y2Ba
在、VS和MH发达的思想。LR和SL设备级的开发研究。和SN执行应用程序级模拟。gydF4y2Ba
资金gydF4y2Ba
这项工作主要是由国家科学基金会(NSF)资助号码ccf - 2106964。gydF4y2Ba
的利益冲突gydF4y2Ba
作者声明,这项研究是在没有进行任何商业或财务关系可能被视为一个潜在的利益冲突。gydF4y2Ba
出版商的注意gydF4y2Ba
本文表达的所有索赔仅代表作者,不一定代表的附属组织,或出版商、编辑和审稿人。任何产品,可以评估在这篇文章中,或声称,可能是由其制造商,不保证或认可的出版商。gydF4y2Ba
引用gydF4y2Ba
Ankit,。,Hajj, I. E., Chalamalasetti, S. R., Ndu, G., Foltin, M., Williams, R. S., et al. (2019). “Puma: A programmable ultra-efficient memristor-based accelerator for machine learning inference,” in《第二十四建筑国际会议上支持的编程语言和操作系统gydF4y2Ba,715 - 731。gydF4y2Ba
巴苏,S。,Bryant, R. E., De Micheli, G., Theis, T., and Whitman, L. (2018). Nonsilicon, non-von neumann computing—Part i [scanning the issue].Proc。IEEEgydF4y2Ba107年,11到18门。doi: 10.1109 / jproc.2018.2884780gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
•贝雷特如是,。,Habrard, A., and Sebban, M. (2015). Metric learning.合成收。Artif。智能。马赫。学习。gydF4y2Ba9,1 - 151。doi: 10.2200 / s00626ed1v01y201501aim030gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Cai, H。,Kang, W., Wang, Y., Naviner, L. A. D. B., Yang, J., Zhao, W., et al. (2017). High performance mram with spin-transfer-torque and voltage-controlled magnetic anisotropy effects.达成。科学。gydF4y2Ba7日,929年。doi: 10.3390 / app7090929gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Cai, H。,Zhu, L., and Han, S. (2018).Proxylessnas:直接神经结构搜索目标任务和硬件gydF4y2Ba。arXiv预印本arXiv: 1812.00332。gydF4y2Ba
陈,a (2016)。回顾新兴的非易失性内存(nvm)技术和应用程序。gydF4y2Ba固态电子。gydF4y2Ba125年,25-38。doi: 10.1016 / j.sse.2016.07.006gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
陈,中州。埃米尔,J。,Sze, V. (2016). Eyeriss: A spatial architecture for energy-efficient dataflow for convolutional neural networks.SIGARCH第一版。Archit。新闻gydF4y2Ba44岁,367 - 379。doi: 10.1145/3007787.3001177gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
程,M。夏,L。、朱、Z。Cai, Y。谢,Y。,王,Y。,etal. (2017). Time: A training-in-memory architecture for memristor-based deep neural networks. In2017年第54 ACM / EDAC / IEEE设计自动化会议gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),1 - 6。gydF4y2Ba
崔H.-S。,Park, Y. J., Lee, J.-H., and Kim, Y. (2020). 3-d synapse array architecture based on charge-trap flash memory for neuromorphic application.电子产品gydF4y2Ba9日,57岁。doi: 10.3390 / electronics9010057gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Ehret B。,Henning, C., Cervera, M. R., Meulemans, A., von Oswald, J., and Grewe, B. F. (2020).不断学习与hypernetworks复发性神经网络gydF4y2Ba。gydF4y2BaarXiv预印本arXiv: 2006.12109gydF4y2Ba。gydF4y2Ba
Endoh, T。,Koike, H., Ikeda, S., Hanyu, T., and Ohno, H. (2016). An overview of nonvolatile emerging memories—Spintronics for working memories.IEEE j .紧急情况。选取。上面。电路系统。gydF4y2Ba6,109 - 119。doi: 10.1109 / jetcas.2016.2547704gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
冯,X。李,S。,Wong, S. L., Tong, S., Chen, L., Zhang, P., et al. (2021). Self-selective multi-terminal memtransistor crossbar array for in-memory computing.ACS NanogydF4y2Ba15日,1764 - 1774。doi: 10.1021 / acsnano.0c09441gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
费尔南多,b R。气,Y。,Yakopcic, C., and Taha, T. M. (2020). “3d memristor crossbar architecture for a multicore neuromorphic system,” in2020国际神经网络联合会议gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),1 - 8。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
哈,D。,Dai, A., and Le, Q. V. (2016).HypernetworksgydF4y2Ba。gydF4y2BaarXiv预印本arXiv: 1609.09106gydF4y2Ba。gydF4y2Ba
Hochreiter, S。,Schmidhuber, J. (1997). Long short-term memory.神经第一版。gydF4y2Ba9日,1735 - 1780。doi: 10.1162 / neco.1997.9.8.1735gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
华,W。,Zhou, Y., De Sa, C. M., Zhang, Z., and Suh, G. E. (2019). “Channel gating neural networks,” in先进的神经信息处理系统gydF4y2Ba。1886 - 1896。gydF4y2Ba
华,W。,Zhou, Y., De Sa, C., Zhang, Z., and Suh, G. E. (2018).通道控制神经网络gydF4y2Ba。gydF4y2BaarXiv预印本arXiv: 1805.12549gydF4y2Ba。gydF4y2Ba
Humood, K。,Hadi, S. A., Mohammad, B., Abi Jaoude, M., Alazzam, A., and Alhawari, M. (2019). “High-density reram crossbar with selector device for sneak path reduction,” in2019年31日微电子国际会议gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),244 - 248。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Iliev, N。,G我anelli, A., and Trivedi, A. R. (2019). Low power speaker identification by integrated clustering and Gaussian mixture model scoring.IEEE嵌入。系统。列托人。gydF4y2Ba12日,9 - 12。doi: 10.1109 / les.2019.2915953gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
贾古玛,s M。,Czarnecki, W. M., Menick, J., Schwarz, J., Rae, J., Osindero, S., et al. (2019). “Multiplicative interactions and where to find them,” in学习国际会议上表示gydF4y2Ba。gydF4y2Ba
Kileel, J。,Trager, M., and Bruna, J. (2019). On the expressive power of deep polynomial neural networks.放置神经Inf。过程。系统。gydF4y2Ba32岁,10310 - 10319。gydF4y2Ba
金,B。,lee,S., Trivedi, A. R., and Song, W. J. (2020). Energy-efficient acceleration of deep neural networks on realtime-constrained embedded edge devices.IEEE访问gydF4y2Ba8,216259 - 216270。doi: 10.1109 / access.2020.3038908gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Klocek, S。,Maziarka, Ł., Wołczyk, M., Tabor, J., Nowak, J., and Śmieja, M. (2019). “Hypernetwork functional image representation,” in国际会议上人工神经网络gydF4y2Ba(gydF4y2Ba施普林格gydF4y2Ba),496 - 510。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
李,H.-S。,从诉K。,Rojas, W. A. G., Bergeron, H., Jeong, H. Y., Yuan, J., et al. (2020). Dual-gated MoS2gydF4y2Bamemtransistor横梁数组。gydF4y2Ba放置功能。垫子上。gydF4y2Ba30日,2003683。doi: 10.1002 / adfm.202003683gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
李,C。,Belkin, D., Li, Y., Yan, P., Hu, M., Ge, N., et al. (2018). Efficient and self-adaptive现场gydF4y2Ba在多层忆阻神经网络学习。gydF4y2BaCommun Nat。gydF4y2Ba9日,2385年。doi: 10.1038 / s41467 - 018 - 04484 - 2gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
李,C。,Wang, G., Wang, B., Liang, X., Li, Z., and Chang, X. (2021). “Dynamic slimmable network,” in《IEEE / CVF计算机视觉与模式识别会议gydF4y2Ba,8607 - 8617。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
刘,L。,Deng,J. (2018).人工智能学报AAAI会议gydF4y2Ba,32。Dynamic deep neural networks: Optimizing accuracy-efficiency trade-offs by selective execution.
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
妈,X。,Yuan, G., Lin, S., Ding, C., Yu, F., Liu, T., et al. (2020). “Tiny but accurate: A pruned, quantized and optimized memristor crossbar framework for ultra efficient dnn implementation,” in2020年25日亚洲和南太平洋设计自动化会议gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),301 - 306。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
玛纳斯,s D。,Trivedi, a。R。(2016)。门/ source-overlapped异质结隧道fet-based lamstar神经网络及其应用脑电图信号分类。在gydF4y2BaInt, Jt。相依神经gydF4y2Ba。(gydF4y2BaIEEEgydF4y2Ba),955 - 962。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Mikhailenko D。,l我yanagedera, C., James, A. P., and Roy, K. (2018). “M 2 ca: Modular memristive crossbar arrays,” in2018年IEEE国际研讨会上的电路和系统(ISCAS)gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),1 - 5。gydF4y2Ba
Mladenov,诉(2020)。“改性氧化钽忆阻器模型对于memristor-based突触的神经网络,”gydF4y2Ba2020年第九届国际会议上现代电路和系统技术gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),1 - 4。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Mladenov,诉(2019)。分析内存矩阵与hfo2记忆电阻器pspice软件环境。gydF4y2Ba电子产品gydF4y2Ba8,383。doi: 10.3390 / electronics8040383gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Mladenov, V。,K我r我lov, S. (2013). “Analysis of the mutual inductive and capacitive connections and tolerances of memristors parameters of a memristor memory matrix,” in2013年欧洲会议电路理论和设计gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),1 - 4。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
纳斯林,S。,Drobitch, J. L., Bandyopadhyay, S., and Trivedi, A. R. (2019). Low power restricted Boltzmann machine using mixed-mode magneto-tunneling junctions.IEEE电子设备。gydF4y2Ba40岁,345 - 348。doi: 10.1109 / led.2018.2889881gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
纳斯林,S。,Drobitch, J., Shukla, P., Tulabandhula, T., Bandyopadhyay, S., Trivedi, A. R., et al. (2020). Bayesian reasoning machine on a magneto-tunneling junction network.纳米技术gydF4y2Ba31日,484001年。1361 - 6528 . doi: 10.1088 / / abae97gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
纳斯林,S。,舒克拉,P。,Jaisimha, S., and Trivedi, A. R. (2021). “Compute-in-memory upside down: A learning operator co-design perspective for scalability,” in2021年设计、自动化和测试在欧洲会议与展览(日期)gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),890 - 895。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Prezioso, M。,Merrikh-Bayat, F., Hoskins, B., Adam, G. C., Likharev, K. K., Strukov, D. B., et al. (2015). Training and operation of an integrated neuromorphic network based on metal-oxide memristors.自然gydF4y2Ba521年,61 - 64。doi: 10.1038 / nature14441gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Ravanelli, M。Brakel, P。,O米ologo, M., and Bengio, Y. (2018). Light gated recurrent units for speech recognition.IEEE反式。紧急情况。上面。第一版。智能。gydF4y2Ba2,92 - 102。doi: 10.1109 / tetci.2017.2762739gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
从诉K。,Hersam, M. C. (2020). Neuromorphic nanoelectronic materials.Nanotechnol Nat。gydF4y2Ba1 - 12,517 - 528。doi: 10.1038 / s41565 - 020 - 0647 - zgydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
从诉K。Jariwala D。金,i S。,Chen,K。- - - - - -S., Marks, T. J., Lauhon, L. J., et al. (2015). Gate-tunable memristive phenomena mediated by grain boundaries in single-layer MoS2gydF4y2Ba。gydF4y2BaNanotechnol Nat。gydF4y2Ba10日,403 - 406。doi: 10.1038 / nnano.2015.56gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
从诉K。、李H.-S。,Bergeron, H., Balla, I., Beck, M. E., Chen, K.-S., et al. (2018). Multi-terminal memtransistors from polycrystalline monolayer molybdenum disulfide.自然gydF4y2Ba554年,500 - 504。doi: 10.1038 / nature25747gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
从诉K。、李H.-S。,Hersam, M. C. (2017). “Gate-tunable memristors from monolayer MoS2gydF4y2Ba,“在gydF4y2Ba2017年IEEE国际电子设备的会议gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),5 - 1。gydF4y2Ba
Shafiee,。唠叨,。,Muralimanohar, N., Balasubramonian, R., Strachan, J. P., Hu, M., et al. (2016). Isaac: A convolutional neural network accelerator with现场gydF4y2Ba模拟算术闩。gydF4y2BaSIGARCH第一版。Archit。新闻gydF4y2Ba44岁,14日至26日。doi: 10.1145/3007787.3001139gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
施,L。,Zheng, G., Tian, B., Dkhil, B., and Duan, C. (2020). Research progress on solutions to the sneak path issue in memristor crossbar arrays.纳米尺度的睡觉。gydF4y2Ba2,1811 - 1827。doi: 10.1039 / d0na00100ggydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
舒克拉,P。,Muralidhar, A., Iliev, N., Tulabandhula, T., Fuller, S. B., and Trivedi, A. R. (2021a). “Ultralow-power localization of insect-scale drones: Interplay of probabilistic filtering and compute-in-memory,” inIEEE超大规模集成电路(VLSI)系统gydF4y2Ba。gydF4y2Ba
舒克拉,P。,纳斯林,S。,Darabi, N., Gomes, W., and Trivedi, A. R. (2021b).与蒙特卡罗辍学Mc-cim: Compute-in-memory贝叶斯边缘智力gydF4y2Ba。gydF4y2BaarXiv预印本arXiv: 2111.07125gydF4y2Ba。gydF4y2Ba
Spurek, P。,W我nczowski, S., Tabor, J., Zamorski, M., Zieba, M., and Trzciński, T. (2020).Hypernetwork方法生成点云gydF4y2Ba。gydF4y2BaarXiv预印本arXiv: 2003.00802gydF4y2Ba。gydF4y2Ba
Szegedy C。,年代约飞。,Vanhoucke, V., and Alemi, A. A. (2017). “Inception-v4, inception-resnet and the impact of residual connections on learning,” in31日AAAI会议上人工智能gydF4y2Ba。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Szegedy C。,Vanhoucke, V., Ioffe, S., Shlens, J., and Wojna, Z. (2016). “Rethinking the inception architecture for computer vision,” in《IEEE计算机视觉与模式识别会议gydF4y2Ba,2818 - 2826。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
田,B。,刘,L。,燕,M。,Wang, J., Zhao, Q., Zhong, N., et al. (2019). Ferroelectric synapses: A robust artificial synapse based on organic ferroelectric polymer (adv. Electron. Mater. 1/2019).放置电子。垫子上。gydF4y2Ba5、1970006。doi: 10.1002 / aelm.201970006gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Trivedi, a。R。,Mukhopadhyay, S. (2014). Potential of ultralow-power cellular neural image processing with si/ge tunnel fet.IEEE反式。Nanotechnol。gydF4y2Ba13日,627 - 629。doi: 10.1109 / tnano.2014.2318046gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Vaswani)。,Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., et al. (2017). Attention is all you need.放置神经Inf。过程。系统。gydF4y2Ba30.gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
王,Y。,Xia, L., Cheng, M., Tang, T., Li, B., and Yang, H. (2016).学报》国际会议编译器、嵌入式系统的体系结构和合成gydF4y2Ba,1 - 2。Rram基础学习加速度。gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
王,Z。李,C。,Song, W., Rao, M., Belkin, D., Li, Y., et al. (2019). Reinforcement learning with analogue memristor arrays.Nat。电子。gydF4y2Ba2,115 - 124。doi: 10.1038 / s41928 - 019 - 0221 - 6gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
吴,Y。,Ma, Y., Liu, J., Du, J., and Xing, L. (2019). Self-attention convolutional neural network for improved mr image reconstruction.正,科学。gydF4y2Ba490年,317 - 328。doi: 10.1016 / j.ins.2019.03.080gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
燕,B。,Mahmoud, A. M., Yang, J. J., Wu, Q., Chen, Y., and Li, H. H. (2016). “A neuromorphic asic design using one-selector-one-memristor crossbar,” in2016年IEEE国际研讨会上的电路和系统gydF4y2Ba(gydF4y2BaIEEEgydF4y2Ba),1390 - 1393。gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
燕,M。,Zhu, Q., Wang, S., Ren, Y., Feng, G., Liu, L., et al. (2021a). Ferroelectric synaptic transistor network for associative memory.放置电子。垫子上。gydF4y2Ba7日,2001276。doi: 10.1002 / aelm.202001276gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
燕,X。,问我an, J. H., Sangwan, V. K., and Hersam, M. C. (2021b). Progress and challenges for memtransistors in neuromorphic circuits and systems.放置垫。gydF4y2Ba,2108025。doi: 10.1002 / adma.202108025gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
Yu年代。,Chen,P.-Y. (2016). Emerging memory technologies: Recent trends and prospects.IEEE固态电路杂志。gydF4y2Ba8,43-56。doi: 10.1109 / mssc.2016.2546199gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
元,J。,l我u, S. E., Shylendra, A., Gaviria Rojas, W. A., Guo, S., Bergeron, H., et al. (2021). Reconfigurable MoS2gydF4y2Bamemtransistors飙升持续学习的神经网络。gydF4y2BaNano。gydF4y2Ba21日,6432 - 6440。doi: 10.1021 / acs.nanolett.1c00982gydF4y2Ba
《公共医学图书馆摘要》gydF4y2Ba|gydF4y2BaCrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
·阿里·齐达内,m·A。,Eltawil, A. M., Kurdahi, F., Fahmy, H. A., and Salama, K. N. (2014). Memristor multiport readout: A closed-form solution for sneak paths.IEEE反式。Nanotechnol。gydF4y2Ba13日,274 - 282。doi: 10.1109 / tnano.2014.2299558gydF4y2Ba
CrossRef全文gydF4y2Ba|gydF4y2Ba谷歌学术搜索gydF4y2Ba
关键词:gydF4y2Bamemtransistor、横梁、高阶神经网络,输入自适应深度学习,hypernetworks, LSTM,注意,金属氧化物半导体gydF4y2Ba2gydF4y2Ba
引用:gydF4y2BaRahimifard L, Shylendra,纳斯林,刘,从VK、Hersam MC和Trivedi AR(2022)高阶神经处理input-adaptive MoS动态权重gydF4y2Ba2gydF4y2Bamemtransistor闩。gydF4y2Ba前面。电子。板牙。gydF4y2Ba2:950487。doi: 10.3389 / femat.2022.950487gydF4y2Ba
收到:gydF4y2Ba2022年5月22日;gydF4y2Ba接受:gydF4y2Ba2022年7月04;gydF4y2Ba
发表:gydF4y2Ba2022年8月08年。gydF4y2Ba
编辑:gydF4y2Ba
南杜gydF4y2Ba德国开姆尼茨理工大学gydF4y2Ba版权gydF4y2Ba©2022 Rahimifard Shylendra,纳斯林、刘从Hersam, Trivedi。这是一个开放分布式根据文章gydF4y2Ba知识共享归属许可(CC)。gydF4y2Ba使用、分发或复制在其他论坛是允许的,提供了原始作者(年代)和著作权人(s)认为,最初发表在这个期刊引用,按照公认的学术实践。没有使用、分发或复制是不符合这些条件的允许。gydF4y2Ba
*通信:gydF4y2BaAmit Ranjan Trivedi,gydF4y2Baamitrt@uic.edugydF4y2Ba
__gydF4y2Ba这些作者贡献等于这个工作gydF4y2Ba