科学家打造基于量子芯片的神经储存器,有望用于自然语言处理任务
近日,沙特阿卜杜拉国王科技大学何钊博士和所在团队,打造了一种基于量子芯片的神经储存器,支持每平方厘米万亿个节点。
(来源:arXiv)
相比此前的同类系统,本次系统的网络规模高出 2-7 个数量级。对于每个网络节点来说,它都由薄膜上的量子核化诱导的纳米电路组成。
而这种薄膜则由相变材料构成,这让单个读出通道只需消耗 0.07 纳瓦特的电功率。
相比此前最佳的人造储存器,在电功率上降低了 6 个数量级,并且比人脑生物神经元的效率高出 1 个数量级。
由于本次芯片含有大量的神经网络节点,并拥有出色的功率效率。课题组结合其量子特性,开辟了一种新形式的硬件安全原语。
安全原语,是一个物理系统或设备,它能够基于单向物理现象生成独特、且不可复制的数字指纹。
安全原语的强大功能,吸引了学界研究身份验证系统的兴趣。当前的身份验证方法比如密码和生物识别,已被证明可被黑客攻击,不再足以保护用户。
而本次研究证明:通过神经芯片可以打造一种新技术,由于受到量子力学法则的保护,因此不会被硬件克隆所影响。
对于当前和未公开的任何类型的人工智能攻击,上述新技术都具有免疫性。
实验结果显示:其具有 99.6% 的可靠性、100% 的用户认证准确度、以及较为理想的 50% 的密钥唯一性。
其所拥有的量子特性,也比目前最好的技术高 3 倍以上,同时能在仅有 1 平方厘米的面积内存储 21104 多个密钥。
在应用前景上:
其一,可以实现安全应用。
本次芯片能帮助确保智能能源网络等关键基础设施拒绝未经授权的访问,助力实现技术深度渗透的智慧城市。
未来,假如在成熟度更高的技术阶段,基于本次芯片的原型能够完成验证,那么预计这项技术可以显著遏制攻击私人公司和政府机构的网络犯罪行为。
其二,可用于自然语言处理任务。
比如,它能进行语言建模、情感分析、文本分类、机器翻译和语音识别等。
基于储存器的循环性质,使其非常适合用于处理文本等顺序数据。与此同时,它还具备捕获复杂模式的能力,这让其能针对语言的细微差别进行建模。
基于芯片上神经储存器的大规模神经网络节点和高功率效率,则使其能在资源受限环境之中,开展实时的语言处理应用。
(来源:arXiv)
模拟对手,验证攻击
研究中,课题组选择使用锗锑碲这一相变材料。原因在于:对于锗锑碲材料的相变来说,可以通过电场、热、光等多种方式进行诱导和控制。
另外,锗锑碲具备较快的相变速度、以及非挥发性相变过程特性,更加适合于本次课题的开展。
而在制造芯片的时候,为了消除不均匀基底的影响,他们使用单面抛光的硅片作为原始基底。
然后,在硅片上沉积一层薄薄的二氧化硅,来作为最终的支撑基底,借此消除硅作为半导体对于电信号测试的影响。
随后,则需要对锗锑碲薄膜进行沉积。对于这一步骤来说,并没有可以参考的操作参数。
因此,他们需要事先总结参数,特别是总结厚度和时间这两个参数,然后选择适当的沉积时间,以便获得相应的厚度。
而在电极制备这一步骤,则需要基于芯片的电流-电压检测,在任意不同的电极点之间进行电路连接。
这也意味着,电极本身必须是隔离的、并且不能连接。为此,课题组制备了一种光刻掩膜版,在光刻技术的帮助之下,将用于沉积电极的位置暴露出来。
(来源:arXiv)
金,具有良好的导电性,因此该团队将其选为电极材料。
在沉积金膜之前,他们先是沉积一层薄薄的钛膜。钛膜沉积的好处在于,有助于减少金膜在使用中由于温度变化、应力和其他因素导致的剥离或脱落。
接着,他们沉积了 80 纳米和 120 纳米厚度的薄金膜。但是,即使使用钛膜来作为中间层,金膜在光刻胶的显影过程中仍会出现剥离,于是他们二次返工制备了更厚的金膜。
芯片上的引线键合工艺,则涉及到通过引线键合设备,来使用微米级的金线,从而将芯片电极连接到电路板。
然而,焊接参数、温度控制、压力控制、焊接速度、气氛控制和金膜厚度等因素,都会影响引线的键合过程。
为此,经过长达几个月的探索,他们终于确定了适宜的设备参数。
在性能表征这一阶段,课题组使用高分辨透射电子显微镜,来对锗锑碲薄膜的微观结构进行表征。
在微观水平上,锗锑碲薄膜主要由非晶结构和少量直径在 5-7 纳米的晶态区域组成。
研究中,布里渊图案的晶面数据显示:锗锑碲材料具有多晶的性质。
与此同时,他们又使用导电探针原子力显微镜设备,在纳米尺度上测试了器件的电性能。
结果显示:测试图像中每个点的相干区域为 8 纳米 × 8 纳米的单个像素。
通过分析电压与电阻的变化,课题组发现当电压增加时,电阻会减小 1-4 个数量级。
这不仅遵循幂律的行为规律,并且微观演变会出现连续性的变化,材料也显示出从非晶态到晶态的转变。
在原位高分辨率透射电子显微镜的帮助之下,他们跟踪了锗锑碲薄膜在加热过程中的情况。
结果发现:已有晶体的生长、以及新的量子尺寸的晶体在热刺激之下的生长过程,导致锗锑碲薄膜内部发生了变化。
为此,他们在探针台的帮助之下,针对量子芯片进行电流-电压的测试。
通过此他们观察到:非晶态锗锑碲薄膜的参数,开始出现可重现、可连续调制的特性。
而来自非晶薄膜的量子尺度核聚变,会产生纳米电路。下一步是开发一个理论模型,以支持这样一种假设:一个物理储层能够支持源自非晶薄膜量子尺度成核的纳米电路通信。于是,他们决定利用这一特性来开发安全的基础设备,并投入资源进行该应用的研究。
基于此,该团队成功开发出一款认证系统,包含安全密钥生成和安全密钥认证这两个部分。其中,密钥生成遵循“挑战-响应”的模型。
在芯片输入上,他们给定的是二进制的挑战字符串。在芯片输出上,他们则通过使用深度神经网络,来将响应信号转换为二进制密钥字符串。
随后,课题组设计了一个验证网络。在设计验证网络的时候,不但要做到让认证服务器仅仅保留挑战字符串,并且要确保没有任何部分能够存储一次性密钥。
基于这一验证网络,他们开展了密钥认证,并通过针对系统进行建模,模拟了一个“对手”。
这个“对手”不仅非常了解系统的特性,而且能够复制除了神经储存器以外的所有经典组件。
基于这一“对手”,他们评估了系统对于统计推理的抵抗能力。结果表明:攻击者根本无法预测相关的认证实例。
(来源:arXiv)
导师:“你们可能发现了更重要的东西”
另据悉,在制备上述量子芯片时,课题组表示存在一些运气成分。
这项研究原本是要围绕显示应用,开发一种新型光学相变材料。
然而,在沉积过程之中,他们通过透射电子显微镜发现:利用最初在沉积仪器中所使用的条件,并没有得到均匀的薄膜,而是得到了一个非晶系统,该非晶系统由随机聚集的晶粒组成。
因此,当他们获得第一批样品时,所有人都感到非常沮丧,因为没有一个样品达到预期效果。
经过几次尝试之后,他们几乎打算放弃本次项目。然而,当向导师展示这些初始结果时,导师告诉他们:“你们可能发现了一些更重要的东西。”
于是,该团队开展了一次电子测量,尽管出现了异常复杂的物理现象,但是初步结果看起来不错。
又经过大约一年之久,借助高分辨透射电子显微镜、原子力显微镜、拉曼光谱学等手段,他们在原子尺度开展了多次调查,终于理解了本次系统的工作机制,并打造出了上述安全认证系统。
日前,相关论文以《片上量子激活神经储存为弹性身份验证开辟了大型硬件安全模型》(Quantum-activated neural reservoirs on-chip open up large hardware security models for resilient authentication)为题发在 arXiv[1]。
图 | 相关论文(来源:arXiv)
该团队的博士后研究员何钊、博士生马克西姆·伊利扎罗夫(Maxim Elizarov)是共同一作,李宁研究员是共同作者。
沙特阿卜杜拉国王科技大学教授安德烈·弗拉塔洛奇(Andrea Fratalocchi)担任通讯作者。
图 | 安德烈·弗拉塔洛奇(Andrea Fratalocchi)(来源:资料图)
后续,课题组计划开发一个神经芯片的集成解决方案。在目前的方案之中,是由探针台来控制芯片的操作,这限制了在毫秒级范围内调制系统响应速度的能力。
预计在改进之后,将能够进行信息的实时处理,从而提高设备的运行速度和功率效率。
参考资料:
1.https://arxiv.org/pdf/2403.14188
运营/排版:何晨龙
英特尔发布7nm芯片Loihi 2,用于神经拟态计算,可模拟100万神经元
晓查 发自 凹非寺量子位 报道 | 公众号 QbitAI
今天,英特尔发布了第二代神经拟态芯片Loihi 2 。
神经拟态芯片是一种模拟生物神经元的芯片。
与普通芯片不同的是,神经拟态芯片的计算任务是由许多小单元进行的,单元之间通过类似生物神经的尖峰信号相互通信,并通过尖峰调整其行为。
目前,英特尔已经将这种芯片用于机械臂、神经拟态皮肤、机器嗅觉等场景。
2018年初,英特尔推出了其首款神经拟态芯片Loihi,采用14nm制程。
英特尔表示,Loihi 2是对第一代的重大升级,也是使用英特尔第一个EUV工艺节点Intel 4 制造的芯片,意为等效于4nm,实际为7nm工艺。
由于使用了全新工艺,Loihi 2相比前代面积缩小了一半,但仍然包含100万个神经元,数量是前代的8倍,处理速度是前代的10倍。
Loihi 2共有128个神经拟态核心,这128个内核每一个都有192KB的灵活内存,每个神经元可以根据模型分配多达4096个状态,而之前的限制只有24个。
与普通的CPU和GPU不同,神经拟态没有外部内存。每个神经元都有一小部分内存供其专用。主要作用是分配给不同神经元输入的权重、最近活动的缓存以及峰值发送到的所有其他神经元的列表。
Loihi 2可以根据用途选择各种不同连接选项,这一点上有些类似于FPGA。
除了硬件产品外,英特尔还发布了用于Loihi芯片的软件,一个名为Lava 的新开发框架。
该框架以及相关库都用Python编写,并在GitHub上开源,开发人员无需访问硬件即可为Loihi开发程序。
与神经网络有何不同
生物神经元包含树突和轴突。
Loihi芯片上执行单元的一部分充当“树突”,根据过去行为的权重处理来自通信网络的传入信号。
然后它使用数学公式来确定活动何时越过临界阈值,并在超过临界阈值时触发其自身的尖峰信号。之后执行单元的“轴突”查找与哪些其他执行单元通信,并向每个执行单元发送尖峰信号。
为何要研究这种类型芯片?神经拟态计算的倡导者认为,这种方法更接近地模拟大脑功能的实际特征,例如大脑传输信号超高的能效比。
而研究深度学习学者,批评神经形态方法没有取得实际成果,像ResNet等深神经网络已经在计算机视觉上取得了巨大的成功
Yann LeCun曾在2019年的一次会议上驳斥了神经拟态计算方法。
虽然神经拟态计算的研究热度远不及神经网络,但神经拟态芯片的优点在于其能效远高于传统处理器。
IBM于2014年推出了TrueNorth芯片,尽管其运行频率只有几kHz,但它所模拟大脑尖峰神经网络所需的计算资源,只传统处理器0.0001%。
英特尔神经形态计算实验室主任Mike Davies表示,Loihi在某些特定工作负载上,可以比传统处理器效率高出2000倍。
此外,神经拟态计算还能实现动态学习行为。
神经网络非常善于识别训练过的失误,但不够灵活,无法识别他们没有训练的东西。Davies曾展示了神经拟态计算根据视频输入学会识别新的手势,同时不损坏之前训练的能力。
Davies认为,神经拟态芯片在机器人学中有很多潜在的应用。当移动机器人发现自己面临新环境时,它们必须足够灵活,以识别和适应新环境。
参考链接:[1]https://www.intel.com/content/www/us/en/newsroom/news/intel-unveils-neuromorphic-loihi-2-lava-software.html[2]https://www.anandtech.com/show/16960/intel-loihi-2-intel-4nm-4[3]https://www.zdnet.com/article/intel-rolls-out-second-gen-loihi-neuromorphic-chip/
相关问答
什么是神经形态芯片?
神经形态芯片是一款全新的小型半导体芯片,灵感源自人类大脑,能够复制信息并思考处理方式。人体的1,000亿个脑神经元能通过100万亿个突触实现互联互通,使...
神经突触芯片有什么用?
神经突触芯片是一种模拟神经元之间连接的人工智能芯片,它可以模拟和处理类似于人类大脑中的突触连接和信息传输。神经突触芯片的应用潜力非常广泛,包括但不限...
神经形态芯片是什么?有什么特点?-红网问答
IBM研发了一种新型的芯片,它的原理不同于目前的电脑芯片,而是模拟人体神经的形态和工作方式。它是首个具有“神经形态”的电脑芯片,不同于传统意义...
用超微纳米生物芯片植入血液磁化技术治疗癫痫怎么样
[回答]近日,北京华盛医院癫痫病治疗研究中心公布一项非常重要的医学成果:运用超微纳米生物芯片及血液磁化疗法高新技术,结合最新引进的美国尖端抗癫痫医学...
苹果华为发布的神经网络芯片与普通的手机芯片有什么区别?
首先先搞清楚,苹果没有发布神经元芯片,它只是宣称了使用AI技术,这在现有芯片的基础上是可以实现的功能。从目前的技术层次来看,华为算发布了第一款真正意义...
神经网络芯片属于?
高速处理芯片,支持深度学习模式高速处理芯片,支持深度学习模式
英特尔Nervana神经网络芯片的新架构有什么独到之处?
英特尔人工智能产品事业部副总裁CareyKloss对Nervana架构的改进进行了解释,首先是理解一个神经网络(NNP)必须做些什么。使用神经网络训练一台机器,需要...
大脑芯片植入克制癫痫?我有这一_千问健康
大脑芯片植入克制癫痫?我有这一说吗?希望给于回复。
【人类下一步会进化成什么样的?】作业帮
[回答]根据公认的正式年表,人类起源经过了四个阶段:南方古猿、能人、直立人和智人.科学家指出,人类的这种进化并没有结束,现代人的外形构造还存在很多缺陷...
谁能给我说一下!!精准唐帕英文文献翻译多少钱,英文文献翻...
串行通信基础设施为多芯片地址事件系统丹尼尔·B.狂欢节、阿德里安·惠特利、贾科莫因迪韦里神经信息学研究所、乌日河——瑞士苏黎世联邦理工学院...