不谋全局者,不足谋一域。集成电路的发展需要国家战略协同。在聚合、叠加、倍增效应作用下,集成电路的发展日新月异,应用变动弗居。对于大多数应用领域来说,转型升级是发展的唯一出路,而集成电路的开发则是转型升级的强大动力。新市场的发展、新技术的开发,需要最大限度凝聚信心、智慧和力量,而这首先又源自对于技术和市场融合态势的准确认知。
2018年,台积电在硅谷的年度技术研讨会上宣布其7纳米节点进入量产,采用极紫外光刻的制造将于2019年初量产,并就新封装技术进行了说明。根据台积电在研讨会上的发布,2018年上半年就投片了50多个设计案,包括CPU、GPU、人工智能加速器芯片、加密货币采矿专用集成电路芯片、网络芯片、游戏芯片、5G芯片以及车用集成电路。与16纳米的工艺相较,7纳米节点能提升35%的速度或节省功耗65%,闸极密度提升3倍。将采用极紫外光刻微影的N7+节点,能将闸极密度进一步提升20%、功耗再降10%。
“即使是在整个行业不断努力研发突破的前提下,我们也还是会在21世纪20年代初期达到2~3纳米的芯片工艺极限。”这是原国际半导体技术发展路线图组织主席保罗·加尔吉尼(Paolo Gargini)的判断。然而,在逼近摩尔定律的极限时,各种新兴的概念已经产生,这些新概念或设想大体上有三类:第一类是材料和光源、波段等要素的改进,例如利用锗替代硅,或者利用纳米线、碳纳米管以及石墨烯等碳基材料来替代硅基。第二类是结构上的改进,其中以从二维向三维结构的演进为代表,同时“纳米级真空通道晶体管”的概念也已提出。第三类是工艺上的优化,其中随着封装技术的演进,集成系统级芯片(实现两颗裸晶间的10纳米以下互联)的概念也已推出,系统级芯片和系统级封装或将有融合的空间。
从要素的角度看,除了材料本身(例如将芯片中的铜替换成钴)和光刻机所使用的激光光源等变化外,人们也开始进一步关注集成硅光子。以往,专业晶圆厂通常基于磷化铟制造光子器件,采用3英寸或最多4英寸晶圆,其工艺也与硅基器件有所不同。光子的波长比电子的大,因而电子产品向7纳米节点进军时,标准硅光子器件处在130纳米或180纳米节点。光学器件对相位比较敏感,侧壁粗糙度和损耗也很重要,因而决定光学器件的核心是光刻和蚀刻的质量。此外,CMOS工艺能否适用、纯锗的生长(锗作为探测器)、集成方法的优化、利用等离子体激活的直接连接的集体芯片转移工艺,以及光子设计等,都需要进一步的优化。(www.xing528.com)
从晶体管的结构设计来看,早期电子设备的发展源于真空管,后来为晶体管所取代。当晶体管尺寸逼近物理极限时,人们再次将目光投向了真空管―将真空管和晶体管“合二为一”成为纳米级真空通道晶体管。真空通道晶体管或将比普通硅晶体管快10倍,且更耐高温和辐射,成为耐辐射深空通信、高频器件和太赫兹电子等应用中理想的晶体管。在真空通道晶体管中,电子穿过填充有惰性气体的“准真空”间隙行进,以非常高的速度移动,或可快速进行操作,远超任何固态设备的范围。在美国国家航空航天局(NASA)的艾姆斯研究中心,真空通道晶体管的开发已成为其着眼点。未来,介于无线电波和光波之间的太赫兹波段(波长范围为0.03~3毫米,电磁频谱上频率为0.1~10 THz),因其穿透性强、使用安全性高、定向性好、带宽高等特点,或可广泛应用于国防、通信、医疗等领域。然而,要应用较毫米波的波长更短、频率和分辨率更高的太赫兹技术,面临着芯片制造难题:其频率或是当前硅晶体管能够达到的最高频率的数倍至10倍,而真空通道晶体管的开发或可解决这些难题。
从芯片架构的设计来看,随着人工智能加速发展,业界又开始重新审视以往开发的存储器式运算架构。存储器式运算或比图像处理器(GPU)有更高的运算速度,由此实现存储处理器(processor in memory,PIM)的开发。人工智能的热潮,随着相变存储器、电阻式存储器和自旋磁存储器等新兴存储器开发,或将带来全新的数据存储方式。此外,以三维的方式进行构建架构,即把之前在硅片表面进行的平面刻蚀技术转变成多层刻蚀技术,再把这些刻蚀出的薄层硅进行堆叠,也已成为热点。半导体研究公司物理学家托马斯·泰斯(Thomas Theis)指出,“一旦人们从技术上的思维定势中走出来,就会发现其实还有巨大的研究空间有待发掘。”
从工艺优化的角度来看,原子层沉积和原子层刻蚀等技术的综合运用,或将带来新的解决方案,实现原子尺寸上的无差别掌控。目前,原子层沉积工艺已被广泛应用,反应物泵入腔室铺满表面后,清除化学物质并重复泵入,由此硅分子均匀而致密地吸附在金属物表面,并在有氧环境中生成二氧化硅,最终非常均匀地在所有图形表面致密地淀积二氧化硅薄膜。在原子层刻蚀工艺中,硅表面均匀吸附氯元素后,接触等离子体以激活氯,从而在原子尺寸尺度下有序刻蚀。在该工艺中,离子能量需要精准控制,以免能量太大溅射掉硅原子,或是能量太小无法有效传递。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。