2025年10月21日,浙江大学硅及先进半导体材料全国重点实验室杨德仁院士、孙威长聘副教授、集成电路学院徐杨教授合作在Cell Press细胞出版社期刊Cell Reports Physical Science发表题为“Bridging machine learning and neuroscience with a silicon nanosheet neuromorphic device”的研究成果。他们利用设计了基于SiNS器件的原型计算芯片,该脉冲神经网络(SNN)器件展现出与生物神经系统类似的行为,并具备片上模式识别能力。
机器学习是一门起源于神经科学的历史性学科,近年来取得了显著的进展。大型语言模型(LLMs)已成为技术前沿的代表,并被广泛集成到各种终端设备中。尽管机器学习取得了令人瞩目的成功,但其中仍存在一些尚待解决的根本性问题。
首先,大脑是如何理解、处理并从信号中学习的?直接监测大规模神经网络的活动在实验上几乎不可行。因此,受神经动态过程的启发,研究者提出了简化的感知机模型,以在可接受的复杂度内模拟大脑,从而推动了人工神经网络(ANN)的发展。尽管感知机和人工神经网络并不能完全再现神经元的行为,但它们极大地推动了机器学习理论与多层深度网络的发展。然而,机器学习在经验与数学层面的成功,并不能保证我们真正理解大脑功能背后的生物学机制。
其次,神经网络规模的爆炸式增长引出了另一个问题:是否存在比现有计算系统更适合神经网络或神经科学研究的计算架构?大型语言模型的惊人能力在很大程度上源于其庞大的参数规模。然而,随着摩尔定律逐渐逼近极限,芯片器件的微缩也接近物理边界。晶圆制程的持续升级已无法跟上参数量的爆发式增长,这使得模型计算负担极为沉重,阻碍了隐私敏感用户或独立研究团队在本地平台上的部署与应用。
本研究旨在构建一个可行的半导体芯片平台,用于神经科学与机器学习的交叉研究。从神经科学角度看,晶体管为基础的数字电路并非为直接模拟神经元膜电位的模拟信号而设计;而从机器学习角度看,冯·诺依曼架构中的分层存储与缓存机制在大规模并行计算时会导致数据吞吐与运算速度之间的固有矛盾。由于存储与计算分离,神经权重等数据需频繁加载,严重限制了计算效率。这为设计创新计算范式提供了契机——通过引入新材料、新器件及新型体系结构,有望实现理想的“存算一体”架构。
二维材料(2D materials)凭借范德华力作用下的层状堆叠结构、高比表面积导致的表面陷阱效应,以及二维量子限域所导致的准直接带隙等特性,展现出独特的物理性质。本工作聚焦于二维硅纳米片(SiNS)。作为硅的二维衍生物,SiNS具备与传统互补金属氧化物半导体(CMOS)产业潜在兼容的优势。我们通过建模对SiNS的材料物理特性进行了系统研究。得益于其分层堆叠形貌,器件表现出电容阻抗特性,从而呈现出类似神经形态的“漏积分”行为。器件中存在两种载流子跃迁路径——陷阱诱导的间接复合与能带间的直接复合——共同形成多寿命响应特性。基于这些二维特性,我们制备了SiNS神经形态器件,能够在不同波长光激发下调控多寿命行为,从而模拟神经元膜电位中突触后电位(PSP)的漏积分响应,有效再现对不同神经递质刺激的模拟过程。

图1.硅纳米片神经形态器件。
我们利用设计了基于SiNS器件的原型计算芯片。作为一种潜在的新型计算单元,SiNS器件能够原位实现模拟突触后电位的“存算一体”计算,避免了传统缓存过程中的延迟。该脉冲神经网络(SNN)器件展现出与生物神经系统类似的行为,并具备片上模式识别能力。通过将器件的可调特性与人工神经网络的数学模型相结合,我们建立了神经响应、器件行为与ANN模型之间的紧密对应关系。研究揭示了深层SNN与ANN之间的映射关系,以及SNN层间的准ReLU(修正线性单元)关系,使得我们能够构建“代理ANN”模型。将预训练代理ANN的参数(忽略具体脉冲时间信息)转移至SNN后,模型仍能实现高精度的模式识别。此后,通过结合时间信息的脉冲神经网络专用“替代梯度算法”(surrogate gradient algorithm)进行联合训练(tandem learning),网络性能得到进一步优化。这种交互式的联合学习过程揭示了神经科学与机器学习之间可能存在的深层联系。

图2. SiNS器件的理论建模与实验验证。
文章引自《CellPress全科学》公众号



