当前位置:首页 > 光辉团队 > 正文

衡量半导体工艺进步的最好方法(上)

简介衡量半导体工艺进步的最好方法(上) 摩尔定律是半导体技术领域最著名的定律。55年多来,这个“定律”一直在描述和预测晶体管的标度...

衡量半导体工艺进步的最好方法(上)

摩尔定律是半导体技术领域最著名的定律。55年多来,这个“定律”一直在描述和预测晶体管的标度定律,也就是说,它们每18-24个月就会翻倍,它们的性能也会翻倍。换句话说,每1美元可以买到的电脑性能每18-24个月就会翻倍。这条定律揭示了信息技术进步的速度。就像一些基于物理原理的末日时钟一样,在过去的几十年里,随着工程师们试图定期将晶体管的数量增加一倍,节点的数量一直在下降。

当戈登·摩尔第一次指出以他的名字命名的趋势时,没有节点这种东西,只有大约50个晶体管经济地集成在一个集成电路上。

但是经过几十年的努力和数千亿美元的投资,看看我们已经走了多远!如果你使用的是高端智能手机,其内部处理器采用的技术应该是7纳米节点。这意味着一平方毫米的硅中大约有1亿个晶体管。在5纳米节点上制造的处理器正在生产中,技术巨头们希望在十年内开发出1纳米节点。

你是索尼娅吗?

想想吧。一纳米不到五个硅原子宽。因此,你有理由相信摩尔定律将很快消失,半导体制造技术的进步不会带来处理能力的进一步飞跃,而固态器件工程将是一个死胡同。

但是你错了...

半导体技术节点系统描绘的画面误导了你。事实上,7纳米晶体管的大多数关键特性实际上比7纳米晶体管大得多,这种命名法和物理现实之间的脱节已经持续了大约20年。当然,这不是秘密,但它确实带来了一些非常不幸的后果。

首先,对“节点”的不断关注掩盖了这样一个事实,即即使在CMOS晶体管的几何形状不再被压缩之后,半导体技术仍将继续以实用的方式促进计算的发展。另一个原因是,持续的以节点为中心的半导体发展观点不能像过去那样为行业指明前进的方向。最后,如此多的股票被放入一个毫无意义的数字中,这很烦人。

为了找到更好的方法来标志这个行业的里程碑,从而产生更好的替代品。然而,在一个高度竞争的行业中,专家们会联合起来支持其中一个吗?我希望如此,这样我们就能再次有一个有效的方法来衡量这个世界上最大、最重要、最有前途的行业的进步。

那么,我们是如何达到这种状态的呢?在过去的几百年里,可以说最重要的技术进步似乎有一个自然的终点。自1971年英特尔4004微处理器发布以来,金属氧化物半导体晶体管的线性尺寸减少了约1000倍,而单个芯片上的晶体管数量增加了约1500万倍。用来衡量集成密度显著进步的指标主要称为晶体管半节距或栅极长度。幸运的是,在很长一段时间里,他们的人数几乎是一样的。

晶体管的半间距是指芯片中互连线之间距离的一半,即光刻间距的一半。在二维晶体管或“平面”晶体管设计中,栅极长度在晶体管的源极和漏极之间的空之间测量。在这个空空间中,有一个用于控制源极和漏极之间电子流的器件栅叠层。这是决定晶体管性能的最重要因素,因为较短的栅极长度意味着开关器件更快。

在晶体管的栅极长度和半节距大致相等的时代,它们成为芯片制造技术的象征性特征,我们称之为节点数。每一代芯片的这些功能通常会减少30%。这种减少将使晶体管密度加倍。如果你仔细想想,将矩形的X和Y维度缩小30%意味着面积减半。

在20世纪70年代和80年代,晶体管的栅极长度和半节距总是发挥作用,但在90年代中期,这两种功能开始分离。为了继续在速度和设备效率方面取得突破性进展,芯片制造商比设备的其他特性更积极地减少了栅极长度。例如,使用所谓的130纳米节点制造的晶体管实际上具有70纳米的栅极。结果是摩尔定律密度倍增路径的延续,但是门长度将不成比例地减少。然而,在很大程度上,业界仍然坚持命名旧节点。

无意义的技术节点

在20世纪90年代中期之前,逻辑技术节点相当于他们生产的互补金属氧化物半导体晶体管的栅极长度。实际栅极长度会缩短一段时间,然后停止收缩。

GMT方法

平版印刷术的局限性——最先进的平版印刷技术——极紫外平版印刷术,依靠波长为13.5纳米的光。这意味着芯片功能将很快停止萎缩。芯片制造商将不得不转向单片3D集成,并增加器件层,以不断提高硅互补金属氧化物半导体的密度。GMT方法通过描述两个最关键特征的尺寸、接触栅间距和金属间距以及层数来跟踪该过程。

21世纪初,两种技术的差距进一步拉大,处理器遇到了功耗的限制。幸运的是,工程师们找到了一种不断改进设备的方法。例如,通过将晶体管的部分硅置于压力下,电荷载流子可以在较低的电压下以较高的速度通过,从而提高了互补金属氧化物半导体器件的速度和功率效率,而不会大大减小栅极长度。

由于电流泄漏问题,有必要调整互补金属氧化物半导体晶体管的结构,这有点麻烦。2011年,当英特尔在22纳米节点处转而采用FinFET时,该器件的栅极长度为26纳米,半节距为40纳米,鳍宽为8纳米。

IEEE Life的研究员、英特尔的资深人士PaoloGargini说:“节点号”在当时是完全没有意义的,因为它与你能找到的与你正在做的事情相关的任何维度都没有关系。“他领导了一个新的测量标准。

半导体工业需要更好的方法,这是一个广泛的共识。解决方法很简单,就是根据晶体管的实际特性重新排列命名法。这并不意味着回到栅极长度,这不再是最重要的特征。相反,建议使用两种方法来表达制造逻辑晶体管所需区域的实际限制。一种叫做接触栅间距。指从一个晶体管的栅极到另一个晶体管的栅极的最小距离。另一个重要的测量方法,金属间距,测量两个水平连接之间的最小距离。

Arm首席研究工程师布赖恩·克莱恩(Brian Cline)解释说,这两个值是在新流程节点中创建逻辑的“最小公分母”。这两个值的乘积是晶体管最小可能面积的良好估计。每隔一个设计步骤形成一个逻辑或静态随机存取存储器单元,并且电路块增加这个最小值。"一个好的逻辑过程与深思熟虑的物理设计特征相结合,将最大限度地降低这一价值."

加尔吉尼是IEEE国际设备和系统路线图(IRDS)的主席。今年4月,他提出通过采用三位数标准“回归现实”,该标准结合了接触栅间距(G)、金属间距(M)和对未来芯片非常重要的片上设备层数(T)。这样,未来节点的所有方面都可以预测,从而使行业及其供应商有一个统一的目标。

ITRS的Gargini解释说:“要评估晶体管密度,你只需要知道这三个参数。”

IRDS的路线图显示,即将推出的5纳米芯片的栅极间距为48纳米,金属间距为36纳米,单层大米为G48M36T1。它传达了比“5纳米节点”更有用的信息。

与节点命名法一样,这种巨磁电阻度量的栅极间距和金属间距值将在未来十年内继续减少。然而,这样做的速度将越来越慢,根据目前的进展速度,它将在大约10年内达到终点。到那时,金属间距将接近极限紫外线光刻可以解决。尽管上一代光刻机的成本效益远远超过了193纳米波长的可感知极限,但没有人认为在极端紫外线下会发生同样的事情。

Gargini:“大约在2029年,我们将达到光刻技术的极限。”在那之后,“剩下的方法是堆叠...这是我们增加密度的唯一方法。”

这时,级数(t)开始变得重要。今天先进的互补金属氧化物半导体硅是一层晶体管,通过十多层金属互连连接成一个电路。但是如果你能制造一个两层晶体管,你就能一下子把设备的密度增加一倍。

对于硅互补金属氧化物半导体来说,它仍处于实验室阶段,但不会太久。十多年来,工业研究人员一直在探索制造“单片3D集成电路”的方法,这种集成电路是一层层堆叠的晶体管。然而,这并不容易,因为硅的加工温度通常很高,建造一层会破坏另一层。然而,一些工业研究机构(比利时纳米技术研究公司的Imec、法国的CEA-Leti和英特尔)正在开发能够在CMOS逻辑中制造这两种晶体管的技术——NMOS和pmos。

今天的非硅技术可以更早地实现3D互连。例如,麻省理工学院的教授马克斯舒拉克和他的同事们已经参与了基于碳纳米管晶体管层的3D芯片的开发。这项技术可以在相对较低的温度下处理这些器件,这使得它们比硅器件更容易堆叠成多层。

其他人专注于在硅上的金属互连层中构建逻辑或存储器件。这些包括微机械继电器和由原子薄半导体如二硫化钨制成的晶体管。

大约一年前,一群著名学者聚集在加州大学伯克利分校,提出了他们自己的测量标准。

这个非正式小组包括半导体研究领域的一些名人。参加2019年6月会议的有来自柏克莱的三名工程师:胡正明、苏在刘金标和杰弗里·博克。Bokor是该大学电气工程系主任。胡是世界上最大的半导体制造商的前技术总监,他获得了今年的IEEE荣誉奖章。刘,工程学院院长,英特尔董事会成员。伯克利的萨耶夫萨拉赫丁是铁电器件开发的先驱,他也出席了会议。

斯坦福大学的黄宜弘教授是台湾化学公司的教授和企业研究副总裁。SubhasishMitra发明了一项关键的自我测试技术,并与Wong合作开发了第一台基于碳纳米管的计算机。詹姆斯·普卢默是英特尔前董事会成员,也是斯坦福大学任职时间最长的工程系主任。麻省理工学院的TSMC研究员凯瑞玛卡瓦达尔和迪米特里安托尼迪斯后来也加入了进来。

刘说,他们都觉得自己的专业对尖子生,尤其是美国学生越来越没有吸引力了。这一信念背后的逻辑似乎很简单:如果你看到一个领域从现在起10年内不能取得进步,为什么要花4到6年时间来训练它?她说,当“我们实际上需要越来越多的创新解决方案来继续推动计算机技术的发展”时,这种对优等生没有吸引力的现象就出现了。"

这些专家寻求一种可以消除节点末日时钟的度量标准。他们认为,这一措施不应有自然的终点,这一点至关重要。换句话说,数字应该随着进步而上升,而不是下降。它还必须简单、准确,并与改善半导体技术的主要目的——更强大的计算系统——相关联。

为了实现这个目标,他们想要的不仅仅是描述用于制造处理器的技术,比如IRDS的格林尼治标准时间。他们不仅要考虑处理器,还要考虑影响整个计算机系统性能的其他关键方面。这可能看起来过于雄心勃勃,也许是真的,但它符合计算机的发展方向。

如果我们打开英特尔Stratix 10现场可编程门阵列的封装,您会发现它不仅仅是一个现场可编程门阵列处理器。在封装中,处理器芯片被一系列芯片包围,其中值得注意的是它包括两个高带宽的动态随机存取存储器芯片。一块刻有密集互连阵列的硅片将处理器和存储器连接起来。

计算机最基本的功能是逻辑、记忆以及它们之间的联系。因此,为了提出新的度量标准,Wong和他的同事选择了这些成分的密度作为参数,它们分别被称为DL、DM和DC。结合下标,他们的方法被称为LMC度量。

根据LMC测量的发起者,DL、DM和DC的改进对计算系统的整体速度和能效做出了重大贡献,尤其是在当今以数据为中心的计算时代。他们绘制了历史数据,并展示了逻辑、记忆和连通性增长之间的相关性,这表明DL、DM和DC的均衡增长已经持续了几十年。他们认为这种平衡隐含在计算机体系结构中,令人惊讶的是,它适用于各种复杂的计算系统,从移动和桌面处理器到世界上最快的超级计算机。黄说,这种平衡的增长表明,未来也需要类似的改善。

在下一篇文章中,我们将重点讨论LMC的测量方法以及它与格林尼治时间的不同之处。晶体管的数量何时会达到峰值?


最新文章