半导体导电机理的导电性能受哪种物理现象的影响最小 磁场

半导体行业观察 - 知乎专栏
{"debug":false,"apiRoot":"","paySDK":"/api/js","wechatConfigAPI":"/api/wechat/jssdkconfig","name":"production","instance":"column","tokens":{"X-XSRF-TOKEN":null,"X-UDID":null,"Authorization":"oauth c3cef7c66aa9e6a1e3160e20"}}
{"database":{"Post":{"":{"title":"FD-SOI好处那么多,为什么都不用呢?|半导体行业观察","author":"jyzzzz2012","content":"今年最火的是什么?估计很多人都会给出人工智能这个答案。确实,无论是推出TPU的谷歌,还是借着GPU翻上历史顶峰的英伟达,亦或是将会在下个月推出搭载麒麟970的华为,这些事件当中,无一例外的都提到了人工智能和深度学习。而在今年9月26日举行的第五届上海FD-SOI论坛上,在这汇聚了业内顶尖人才和专家的盛会上,深度学习和人工智能再一次走进了半导体行业深层次领域,而不再浮于应用层面。深度学习和人工智能能够为FD-SOI带来什么呢?机遇还是挑战?美国商业战略公司(IBS)主席兼首席执行官Handel Jones 先生给出了自己的答案。美国商业战略公司(IBS)主席兼首席执行官Handel Jones产品驱动下的全球半导体市场近年来,半导体市场一直保持这增长态势。比较明显的一个趋势就是,2015年,全球半导体市场总额为3371亿美元,2017年增长到3844亿美元,虽然近年来的增长速度不快,但是受到来自于物联网、人工智能、无人驾驶等多种新应用的兴起,Handel Jones 先生表示,这一数字将会在未来几年出现飞速的增长。预计到2025年,将会增长到6098亿美元。而从具体的细分产品来看,目前全球半导体市场中产品主要分为以下几类:MPU、MCU、DSP、StandradC Cell ASIC、FPGA、Logic、显示驱动、模拟、存储等等。从Handel Jones 先生分享的上图中,我们不难发现,其中逻辑器件以及存储器件将会成为半导体市场的主要驱动力。逻辑器件和存储器件作为通用的半导体器件,其增长只能说明整个半导体市场出现了增长,市场对于这类器件的需求出现了增长。为什么会出现显著的增长呢?主要的原因就是人工智能、深度学习、无人驾驶这类新的应用使得原本并不或者很少使用电子元器件的应用更多的使用到电子元器件。以人工智能为例,为了满足人工智能可能的需求,我们需要不断的提高处理性能,获得海量数据需要进行存储,进行学习。这在无形之中都增加了电子元器件的使用,更不用说物联网这类无所不在的应用,更是将电子元器件布局到生活中的方方面面。半导体的主力——中国市场那中国作为半导体市场最大的消费者,又有什么不同呢?从上图我们能够看到,中国在2015年,市场总额为1640亿美元,约占全球的48.7%。到了2017年,预计将会增长到1990亿美元,占比52%。那么2025年的情况又怎么样呢?在高速增长的态势下,中国市场到2025年可能达到3660亿美元,占比60%。可以说,中国市场作为最大的消费群体,在半导体市场中的作用愈加凸显,但是从细分的产品划分来看,与全球并没有太多区别。也就是说,物联网、人工智能和深度学习将会成为未来中国半导体市场主要的驱动力。人工智能下的半导体行业变化此外,Handel Jones 先生也指出,在人工智能和深度学习浪潮的影响下,全球半导体行业将会出现以下几点变化:1.电子行业进入数据货币化阶段,这种货币化并不是如比特币一样的虚拟数据,而是意味着数据作为有价值的物品将会愈加重要,甚至是驱动公司的发展,成为主要的发展动能。比较明显的几个例子就是阿里巴巴、腾讯、百度甚至是国外的谷歌、亚马逊和Facebook,这些都是典型的数据驱动型公司。硬件在这些公司更多的只是辅助性作用。2.中国企业在大数据时代异常的活跃。与硬件驱动时代不同,大数据时代由于硬件成本较低,软件更加便捷,中国企业在这一方面的活跃程度要远远高过外国企业。以阿里巴巴为例,其旗下的支付宝提供的移动支付功能,普及程度已经远远超过了发达国家,这一方面,中国已经走在了世界前列。3.数据的来源将更加多样化和复杂化。物联网和人工智能将会带来数据的爆炸式增长,这种增长不仅体现在数据量级的增长,也体现在数据来源的增长。物联网使得万事万物都能够连接到网络,而人工智能和深度学习对于数据的需求也是传统应用难以企及,这就使得我们获取的数据的来源从原先的几个来源,变为了现在的成百上千个不同的来源,更不要说到底会有多少物体会接入到物联网中。4.除了之前所说的物联网和人工智能之外,自动驾驶,游戏以及高清视频同样会产生海量的数据,这些也会增加数据的量级和复杂程度。5.这同样也为半导体市场带来了巨大的发展机遇。像人工智能、深度学习这样的应用,是需要海量的数据来支持的,没有足够的数据,人工智能就难以落地。那么在这过程中,无论是数据的手机、传输、呈现还是处理都需要半导体的介入,而这就是难以估量的机遇。6.除了海量数据的要求之外,由于人工智能涉及到视觉、音频、实时处理能力以及今后的训练、推理功能,都要求能够使用更高性能、更低功耗的产品来支撑。这也是半导体的一个机遇。之前提到的更多的是一种技术方面的变化,那么是不是还有什么我们忽略的事情呢?首先来看几个简单的例子:在人工智能方面最先收益的是智能手机,在AR功能的支持下,最新的图像处理器将包括图像割裂和融合以及图像识别功能,这些功能都需要强大的运算能力,因此,我们看到,华为最新推出的具有神经处理单元的麒麟970能够达到1.92TFLOPS。苹果最新推出的A11仿生处理器,其计算速度能够达到每秒6000亿次运算。目前智能驾驶还处在比较早期的阶段,要想实现所谓的4级甚至是5级自动驾驶,就需要人工智能和深度学习的介入。而目前英伟达公司正在致力研究的产品确实基于FD-SOI工艺的,这说明什么呢?还需要更多的例子吗?智能机器人、智能家居、智能工厂,这些应用要想实现真正的智能就必须要有人工智能和深度学习,就需要半导体厂商为之提供真正适合的高性能、低功耗的处理器,就如英伟达所做的那样。不成比例的中国市场而中国也能够参与其中,因为中国有着更加广阔的市场,无论是硬件还是软件:预计到2025年,中国市场将会占到全球半导体市场的60%。像华为、Vivo、OPPO、联想等等这样的公司,到2025年将会在中国市场消耗掉60%的半导体,而这一数字在2010年的时候仅仅只是15.8%。此外,中国将会生产提供全球65.4%的智能手机。同时,中国还在致力于推动5G技术的发展和落地。基于以上这些趋势,而中国又作为最大的半导体市场,到2025年,消耗半导体的份额将会提升至81.2%。那么如此巨量的消耗都用到了哪里了呢?其中一个比较明显的市场就是手机。Handel Jones 先生分享一张近年来,中国生产的智能手机占全球智能手机的比例。从图中我们不难发现,2013年,中国仅占到35.7%;2015年,47.1%;2017年预计会达到58.9%;预计到2025年,将会达到65.4%。不难发现,中国公司所生产的手机所占的比例越来越高。随着中国生产智能手机的数量增多,消耗的半导体占比也是呈现飞速的增长。2010年这一占比为15.8%,而预计到2025年将会增长到60%。虽然中国企业生产的产品增加了,消耗也增加了,但是我们依然面临着一个严峻的问题:中国半导体企业需要加强自身的设计能力。Handel Jones 先生表示,还是以2015年到2025年这十年间为例,中国半导体企业从国内公司获得支持仅为10.1%,到2025年将增长到18.8%。不难发现,中国半导体企业的增长速度和自身能力的增长完全不成比例,绝大多数设计还是以来国外企业。如何解决这一问题呢?解决问题的突破口解决这一问题首先考虑的是从技术方面寻找突破口。随着2014年,大基金的成立,中国半导体企业通过并购、建厂、建立研发基地以及发生了翻天覆地的变化。但是传统的半导体工艺,尤其是FinFET技术,不仅需要大量的资金投入,也需要深入的技术研究,这些都不是短期内能够弥补的。更不要说随着收购愈来愈难,先进的技术很难真正进入国内。这时候,我们却从另一个角度看到了突破的希望,那就是FD-SOI工艺。作为与FinFET技术几乎同时出现的另一种工艺技术,FD-SOI工艺似乎一直活在FinFET的阴影里,难见天日。但是随着物联网、人工智能、智能驾驶这样的新应用对半导体提出了全新的挑战,而FinFET工艺也遇到了瓶颈,尤其是FinFET的制造、研发成本越来越高,已经远远不是一般玩家能够承受的起的了。作为在工艺成本方面很有研究的专家,Handel Jones 先生指出,在相同的条件下,12nm FD-SOI的工艺要比7nm FinFET工艺在成本上低27%。更加详细的比较就是:12nm FD-SOI要比16nm FinFET成本低22.4%,比10nm FinFET低23.4%,比7nm 低27%。当然这些都是在比较理想的情况下进行估计的。可以说,FD-SOI工艺的主要价值就体现在低成本、低功耗和高性能上。那在设计成本上呢?12nm FD-SOI工艺的设计成本大概在5000万美元到5500万美元,而16nm FinFET的设计成本就已经达到了7200万美元。还是存在着很大的差距。总结因此,在Handel Jones 先生看来,FD-SOI具有以下几点优势:1.FD-SOI工艺的入门成本要比FinFET,同时能够提供很好低功耗和高性能体验。2.目前来看,FD-SOI工艺的设计成本比FinFET更低。3.像RF、 eNVM这样的应用使用FD-SOI工艺将会更加有效。那么为什么FD-SOI没有爆发呢?Handel Jones 先生认为主要是以下几点原因限制了FD-SOI工艺的发展。1.FD-SOI的好处没有得到充分的认识。2.IP还没有到位,生态系统没有建立起来。3.目前厂商都过于乐观的估计了未来FinFET工艺的发展,无论是生产成本还是设计成本都存在盲目乐观的情况。因此,Handel Jones 先生在演讲最后表示,中国公司如果只是关注FinFET想要追赶是非常困难,也应当关注其他高性能,低功耗的技术,而目前来看,FD-SOI就是一个很好的选择!文/刘燚今天是《半导体行业观察》为您分享的第1408期内容,欢迎关注。Reading推荐阅读(点击文章标题,直接阅读)★★★ 关注微信公众号 半导体行业观察,后台回复关键词获取更多内容回复 科普,看更多半导体行业科普类的文章回复 DRAM,看更多DRAM的文章回复 光刻,看更多光刻技术相关文章回复 滤波器,看更多滤波器相关文章回复 全面屏,看更多全面屏相关文章回复 双摄,看更多关于手机双摄像头的文章回复 制造,看更多关于芯片制造的文章回复 人工智能,看《零基础看懂全球AI芯片:详解“xPU”》回复 展会,看《2017最新半导体展会会议日历》回复 投稿,看《如何成为“半导体行业观察”的一员 》回复 搜索,还能轻松找到其他你感兴趣的文章!","updated":"T05:39:00.000Z","canComment":false,"commentPermission":"anyone","commentCount":5,"likeCount":8,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","sourceUrl":"","publishedTime":"T13:39:00+08:00","links":{"comments":"/api/posts//comments"},"url":"/p/","titleImage":"/v2-673cda2e18aefda3317e_r.jpg","summary":"","href":"/api/posts/","meta":{"previous":null,"next":null},"snapshotUrl":"","commentsCount":5,"likesCount":8},"":{"title":"Intel提出AI芯片新设计,能自主学习|半导体行业观察","author":"jyzzzz2012","content":"来源:本文半导体行业观察翻译自wired&Intel ,
作者Tom Simonite& Michael Mayberry,谢谢。半导体行业观察:如果有人曾让你猜测过一段视频中人物的表情,你的大脑就会在一阵电子脉冲中完成信息交换。近日,英特尔的研究者利用类似的机制设计出了他们的新型芯片 Loihi,它可以使用自己的数千个脉冲式硅“神经元”来解决问题。英特尔的新设计得名于夏威夷的一座海底火山,到目前为止还算不上是一个真正的大脑。但它与传统的处理器非常不同。该公司表示这种方法未来将可用于制造更加智能的汽车、相机和机器人,同时也无需依赖连接到云的互联网。这样不仅再也不需要等待数据在互联网中传输,而且也有了更好的隐私保证。英特尔表示已经对该芯片进行了测试,结果表明这款脑启发的神经形态芯片可以仅用传统芯片千分之一的能量就能完成视频解读。这样的高性能加上 Loihi 遇到新数据就能进行学习的能力有望带来更加智能的机器,这些机器将能自己适应不断变化的真实世界并为人类提供帮助。英特尔研究部门的总经理 Michael Mayberry 表示:“我们正在努力更好地理解自然环境中发生的事情。”英特尔实验的新芯片设计示意图,来自英特尔Loihi 目前仍处于研发阶段。但 Mayberry 说完全版本的芯片将在 11 月份开始制造,这个版本将具有 130 000 个神经元,整体大小与小指甲盖差不多。一些学术机构和研究机构将在 2018 年开始试用这款芯片。英特尔已经制造出了两款小型的原型设计版本,目前正在测试完全版本的设计。Mayberry 估计如果 Loihi 能得到关注,也还需要两年或更长的时间才能上市。英特尔一直在努力将当前的人工智能热潮作为公司的新增长引擎,Loihi 只是其中最新的成果而已。去年,英特尔收购了两家使用机器学习驱动云计算和计算机视觉的创业公司 Nervana 和 Movidius。今年 3 月份,英特尔又收购了以色列的 Mobileye,这家公司生产用于自动驾驶的相机和芯片。英特尔需要新的增长业务。PC 市场已经止步不前很长时间了,而且该公司基本上已经放弃突破移动设备处理器市场了。为了增长,英特尔收购了一些开发用于加速人工神经网络的芯片的创业公司。人工神经网络是近来科技界的热门主题,推动实现了谷歌的围棋软件 AlphaGo 的胜利等重大进展。这项技术粗略地模拟了神经元的工作方式,将很多一起工作的神经元用来过滤数据。但英特尔已有的技术(以及谷歌、微软和苹果的人工智能芯片技术)是使用传统芯片设计来驱动神经网络。Loihi 则不一样,因为它是将神经元的自然的模拟性质做成了硬件,这种设计与当前全世界运行的计算机芯片的设计有着本质上的差异。在传统芯片中,数据会在处理器和分离的内存之间来回传输。Loihi 的“神经元”和它们之间的可调连接可以同时用作处理器和内存,这能节省用于传输数据的时间和能量。神经元之间的这种连接(类似于突触)可以随时间调整其活动模式,从而模拟真实大脑中的学习机制。英特尔使用人们表演二头弯举等动作的视频对该芯片进行了测试,看其能否识别新视频中同样的动作。英特尔不是第一家参照神经科学设计芯片的公司。IBM 已经开发了两代神经形态处理器,尽管 IBM 的芯片不能像英特尔的一样学习新数据。IBM 的项目始于美国军方的研究机构 DARPA 的赞助,他们希望神经形态硬件能够用于自动分析战场无人机视频画面等工作。IBM 已经与两个实验室达成了交易,让他们使用自己的芯片来开发研究性系统,但该公司目前还未公布其商业应用规划。人工智能领域的一些前沿研究者(包括 Facebook 的 Yann LeCun)都表达过对神经形态芯片的怀疑,他们指出脉冲式硅神经元目前还未表现出可媲美运行在传统芯片上的机器学习软件的强大和灵活的能力。英特尔的 Mayberry 说他们的 Loihi 芯片的学习方式比之前的系统有更好的适应性。而且现在也正是开发该项目的好时机。最近这股设计开发支持人工智能软件的芯片的热潮说明公司已经不再满足于只依赖传统的芯片技术了。佐治亚理工学院助理教授 Tushar Krishna 说:“所有这些公司都意识到应该进行专门的设计。”他指出曾经作为 CPU 性能增长趋势指标的摩尔定律的终结也是公司们对新思想持开发心态的又一原因。脑启发芯片仍然还远未实现,但可能已经值得严肃对待了。附:英特尔的新自主学习芯片可加速人工智能想象一下,有这样一个未来:我们可以更快更好地进行复杂决策和随时适应。这样我们就可以使用学习到的经验自动解决社会问题和行业问题。在这样的未来里,应急人员可以使用图像识别应用分析道路监控图像和快速处理失踪或绑架人口的报告。在这样的未来里,红绿灯可以根据交通状况自动调节,从而减少拥堵和优化车辆的启动和停止。在这样的未来里,机器人将更加自动化,效率也将大大提高。现在,收集和分析高动态和非结构化自然数据并据此进行决策的需求越来越大;这种需求也让我们越来越需要使用超越经典 CPU 和 GPU 架构的计算。为了跟紧技术进步的步伐和实现超越 PC 和服务的计算,英特尔过去六年来一直在开发可以加速经典计算平台的专用架构。英特尔最近也已经加大了在人工智能(AI)和神经形态计算方面的投资和研发。我们的神经形态计算工作基于始于加州理工学院教授 Carver Mead 的数十年的研究与合作,这位著名教授曾为半导体设计进行了奠基性的研究。芯片专业知识、物理学和生物学的结合又催生出了新的思想。这些思想很简单但又具有变革性:将机器与人脑进行比较。这一领域的研究一直是高度合作的,也推动着科学的进步。作为 Intel Labs 研究的一部分,英特尔已经开发出了自己的第一款自动学习神经形态芯片,代号 Loihi,这款芯片模拟了大脑的工作方式,可以根据来自环境的多种模式的反馈进行学习。这是一款非常高能效的芯片,可以使用数据进行学习和推理,并且会随时间越来越智能,而且它也不需要使用传统的方式进行训练。它使用了一种全新的计算方式——异步脉冲(asynchronous spiking)。我们认为目前人工智能正处于起步阶段,类似 Loihi 的更多架构和方法还将继续涌现。神经形态计算的灵感源自我们目前对大脑架构和相关计算方式的理解。大脑的神经网络使用脉冲或尖峰传递信息,根据这些脉冲的时序调节互连突触的强度或权重,然后将这些改变存储在本地的互连中。而智能行为就产生于大脑中神经网络的不同区域与环境的协作和竞争性的相互作用。通过使用大量训练数据集来识别物体和事件,深度学习等机器学习模型近来已经取得了巨大的进展。但是,只有当这些训练数据集指定了特定的元素、情况和环境时,这些机器学习才能得到很好的效果,它们的泛化能力很不好。自动学习芯片有无限的潜在好处。比如为一个基于神经形态的系统提供一个人在不同条件(慢跑、饭后或睡前)下的心跳读数,该系统就能确定“正常的”心跳范围。然后该系统可以继续监控新输入的心跳数据,以便标记出那些不同于“正常”模式的模式。该系统可以为每位用户定制。这样的逻辑也适用于其它用例,比如网络安全,因为该系统已经学习过多种背景中的“正常模式”,所以数据流中的异常和差异可能就预示着出现了数据泄漏或黑客攻击。介绍 Loihi 测试芯片Loihi 研究测试芯片包含模拟大脑基本机制的数字电路,这可使得机器学习更快更有效,同时所需的计算算力更少。神经形态芯片模型的灵感源自神经元通信和学习的方式,即使用可根据时序调节的脉冲和可塑性突触。这可以帮助计算机根据模式和相关关系进行自组织和做决策。Loihi 测试芯片提供了高度灵活的片上学习并且将训练和推理集成到了单一一块芯片上。这让机器可以自动实时适应,而无需等待来自云的下一次更新。在解决 MNIST 数字识别问题并达到给定的准确度上,从总运算量上看,Loihi 所表现的学习速度已经超过了经典脉冲神经网络 100 万倍。与卷积神经网络和深度学习神经网络等技术相比,Loihi 在同样的任务上所需的资源也要少得多。这种测试芯片所表现出的学习能力在汽车和工业应用以及个人机器人方面有巨大的应用潜力。实际上,任何需要在非结构化环境中进行自动操作和连续学习的应用都能从中受益,比如识别汽车或自行车的运动。此外,在通用计算方面,它的能效也比经典训练系统高 1000 多倍。Loihi 测试芯片将在 2018 年上半年分享给专注推进人工智能的领先大学和研究机构。其它亮点Loihi 测试芯片的功能包括:?完全异步的神经形态多核 mesh 网络,支持各种稀疏、分层和循环神经网络结构,且每个神经元都能与数千个其它神经元通信。?每个神经形态内核都包含一个学习引擎,可以在运行期间编程以适应网络参数,支持监督、无监督、强化和其它学习范式。?使用英特尔 14nm 工艺技术制造。?总共有 130 000 个神经元和 1.3 亿个突触。?开发和测试的几个算法都有很高的算法效率,这些算法涉及的问题有路径规划、约束满足、稀疏编码、词典学习和动态模式学习与适应。未来在计算和算法创新的进步的推动下,人工智能有望在超大的规模上对社会产生变革性的影响。今天,我们英特尔正在应用我们在推动摩尔定律和制造业的领导地位的优势为市场带来各种各样的产品——英特尔 Xeon 处理器、Nervana 技术、Movidius 技术和英特尔 FPGA,帮助解决从边缘到数据中心到云上人工智能负载的独特需求。通用计算和定制硬件和软件都将在各种尺度上发挥作用。广泛用于科学计算的英特尔 Xeon Phi 处理器已经产生了一些用于解释大型科学问题的世界上最大的模型。而 Movidius Neural Compute Stick 是一个将之前训练好的模型用 1W 功率进行部署的案例。随着人工智能负载越来越多样化和复杂化,它们将给当今主导的计算架构带来挑战并引导出现新的颠覆性方法。展望未来,英特尔相信神经形态计算在大脑工作方式的启发下,将能提供一种实现超强性能的途径。我希望你关注接下来几个月由 Intel Labs 带来的激动人心的里程碑,因为我们将会将神经形态计算的概念带向主流,以便支持世界未来 50 年的经济发展。在使用神经形态计算的未来,随着智能和决策流变得越来越顺畅,速度越来越快,很多之前只能想象甚至超乎想象的东西都会从可能变成现实。英特尔开发创新计算架构的愿景仍然坚定,而且我们知道未来的计算是什么样,因为那正是我们今天正在努力的方向。今天是《半导体行业观察》为您分享的第1409期内容,欢迎关注。Reading推荐阅读(点击文章标题,直接阅读)★★★ 关注微信公众号 半导体行业观察,后台回复关键词获取更多内容回复 科普,看更多半导体行业科普类的文章回复 DRAM,看更多DRAM的文章回复 光刻,看更多光刻技术相关文章回复 滤波器,看更多滤波器相关文章回复 全面屏,看更多全面屏相关文章回复 双摄,看更多关于手机双摄像头的文章回复 制造,看更多关于芯片制造的文章回复 人工智能,看《零基础看懂全球AI芯片:详解“xPU”》回复 展会,看《2017最新半导体展会会议日历》回复 投稿,看《如何成为“半导体行业观察”的一员 》回复 搜索,还能轻松找到其他你感兴趣的文章!","updated":"T03:12:33.000Z","canComment":false,"commentPermission":"anyone","commentCount":1,"likeCount":5,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","sourceUrl":"","publishedTime":"T11:12:33+08:00","links":{"comments":"/api/posts//comments"},"url":"/p/","titleImage":"/v2-e908e0dcddbea4caee709637_r.jpg","summary":"","href":"/api/posts/","meta":{"previous":null,"next":null},"snapshotUrl":"","commentsCount":1,"likesCount":5},"":{"title":"进入32位时代,谁能成为下一个8051 | 半导体行业观察","author":"jyzzzz2012","content":"嵌入式微处理器内核界的传奇老炮儿8051同志已经年届四十,其所代表的深嵌入式微处理器内核架构也正在从8位时代向着32位时代进行迁移。进入32位时代,谁能成为8051的接班人,在深嵌入式领域一统江湖?本文将与读者一起探讨这个有意思的话题。1.1
深嵌入式领域背景简介在传统的计算机体系结构分类中,处理器应用分为三个领域:服务器领域、PC领域、嵌入式领域。服务器领域在早期还存在着多种不同的架构呈群雄分立之势,不过由于Intel公司商业策略上的成功,目前Intel的x86处理器芯片几乎成为了这个领域的霸主。而PC领域本身的几乎是由Windows/Intel软硬件组合本身的发展而壮大,因此x86架构是目前PC领域毫无疑问的垄断者。而传统的嵌入式领域所指范畴非常之广泛,所谓“嵌入式”,名如其文,指在很多芯片中,其所包含的处理器就像嵌入在里面不为人知一样,嵌入式领域的应用非常之广泛,是处理器除了服务器和PC领域之外的主要应用领域。近年来随着各种新技术新领域的进一步发展,嵌入式领域本身也被发展成了几个不同的子领域而产生分化:首先随着智能手机(Mobile Smart Phone)和手持设备(Mobile Device)的大发展,移动(Mobile)领域逐渐发展成了规模匹敌甚至超过PC领域的一个独立领域,其主要由ARM的Cortex-A系列处理器架构所垄断。由于Mobile领域的处理器主要需要加载Linux操作系统,同时涉及到复杂的软件生态,因此其具有和PC领域一样对软件生态的严重依赖。目前既然ARM Cortex-A系列已经取得了绝对的统治地位,其他的处理器架构很难再进入该领域。其次是实时(Real Time)嵌入式领域,该领域相对而言没有那么严重的软件依赖性质,因此没有形成绝对的垄断,但是由于ARM处理器IP商业推广的成功,目前仍然以ARM的处理器架构占大多数市场份额,其他处理器架构譬如Synopsys ARC等也有不错的市场成绩。最后是深嵌入式领域,该领域更加的像前面所指的传统嵌入式领域,该领域的需求量非常之大,这种深嵌入式领域往往注重低功耗、低成本和高能效比,无需加载像Linux这样的大型应用操作系统,软件往往是需要定制的裸机程序或者简单的实时操作系统,因此对软件生态的依赖性相对比较低。因此在该领域很难形成绝对的垄断,但是由于ARM处理器IP商业推广的成功,目前仍然以ARM的Cortex-M处理器占据多大数市场份额,其他的架构譬如Synopsys ARC、台湾Andes等也有非常不错的表现。综上,由于移动(Mobile)领域崛起成为一个独立的分类领域,现在通常所指的嵌入式领域往往是指深嵌入式领域或者实时嵌入式领域。说到此处,我们就不得不提及一位前辈老炮儿:8051内核。1.2
8位时代的传奇老炮儿——8051说起8051内核,熟悉嵌入式领域的朋友,几乎无人不知无人不晓。8051作为一款诞生了数十年之久的微处理器内核,在8位嵌入式微处理器内核领域,它是当之无愧的传奇老炮儿。自从Intel于1980年为嵌入式系统开发 Intel MCS-51 (通常简称 8051)单芯片微控制器(简称单片机)至今,8051内核架构已经走过将近40个年头。Intel还以专利转让的形式把8051内核转让给了许多其他半导体公司,这些公司进一步发展出不同型号基于8051内核的微控制器芯片,因此形成了一个庞大的8051家族。由于几十年发展下来的庞大的用户群和生态环境,以及多年来众多备受肯定的成功产品,可以说8051内核几乎成为8位微处理器内核的业界标杆。8051内核架构在1998年失去专利保护,久经沙场的它再次迸发出强大的二次生命力,各种形式的8051架构MCU(微控制器Microcontroller Unit)进一步涌入市场,各种基于8051内核的芯片产品层出不穷,各种免费版本的8051内核IP也可以从各种渠道获取。当然由于8051内核并没有一个统一的组织和标准进行管理,所以也存在着体系结构混乱,各种增强型复杂多样的问题,虽然时常也都自称为8051内核,但是其实各有差别,琳琅满目让人难以分辨。但是这丝毫无法影响8051内核的经典地位,时至今日,虽然目前微处理器内核正在经历着向32位架构迁移的大趋势,但是8051内核仍然有着举足轻重的地位,在大量的MCU,数模混合芯片,SoC芯片中仍能看到8051内核的身影,并且在相当长的时间内,在适合8位架构处理器内核的应用领域中都将继续使用8051内核,可以说是廉颇虽老,尚能饭也。8051内核之所以能在嵌入式领域取得如此成功的地位,可以归功于如下几个方面的原因:广泛的被认知度,简单的体系结构。没有知识产权的限制,免费和开源的版本众多,非常适合中小型芯片公司采用。庞大的用户群以及相应的生态系统。成熟且免费的软件工具链支持。尽管如此,8051作为一款诞生了接近40年的8位CISC(复杂指令集)架构内核,虽然是老骥伏枥壮心不已,但是由于其性能低下,寻址范围局限,已经难以适应更多的新兴应用领域。随着IoT的发展和崛起,虽然嵌入式领域对于处理器内核的需求更加井喷,但是更多的是开始采用32位架构,且很多传统的8位应用领域也在开始向着32位架构迁移。1.3
IoT的崛起——32位时代的到来IoT(物联网:Internet of Things)这个概念的提出和全面进入人们的视线其实并不久远,应该IoT说是时下最热点的技术应用领域之一。即便近一年来火爆的AI风头更劲一时无两,但是IoT也是AI的基础支撑技术,譬如以智能家居和智能城市为例,IoT终端设备支撑和AI的边缘智能计算便是很重要的两项技术基础设施,IoT与AI呈现出相辅相成进一步提速发展之势。根据麦肯锡全球机构的最新报告预测,全球物联网市场规模可望在2025年以前达到11兆美元,这意味着物联网将有潜力在2025年时达到约11%的全球经济占有率。物联网的新兴应用需要使用到性能更高的32位架构微处理器内核。以MCU为例,工业物联网、可穿戴式装置和智能家居为目前MCU市场的主要驱动力,而32位架构更是当前驱动MCU成长的重要领域。譬如以智能家居为例,智能家居中的有些应用需要更精确的测量和控制、更好的能效,都需要有更复杂的数学模型和运算,这就要求MCU的运算速度大幅提升,以满足能耗和运算的需求。32位MCU执行效能更佳,能够满足众多物联网应用对数据处理能力要求, 能够兼顾物联网的低功耗和高性能要求。有分析称,以2015年统计数据来看,全年全球32位MCU的出货量,就已经超过4/8/16位MCU的总和。谈及32位架构微处理器内核,就难以绕开该领域的学霸ARM Cortex-M同学了。1.4
既生瑜何生亮——ARM Cortex-M的独角戏众所周知,ARM公司虽然设计开发基于ARM架构的处理器核,但是商业模式并不是直接生产处理器芯片,而是作为知识产权(IP:Intellectual Property)供应商,转让授权许可给其合作伙伴。ARM公司的强大之处便在于其与众多合作伙伴一起构建了强大的ARM阵营,全世界目前几乎大多数主流芯片公司都直接或者间接的在使用ARM架构处理器。图1
ARM公司合作伙伴图谱 ARM Cortex-M内核是ARM公司推出的一组用于低功耗微控制器领域的32位RISC处理器系列IP,包括Cortex-M0, Cortex-M0+,Cortex-M1, Cortex-M3, Cortex-M4(F), Cortex-M7(F),Cortex-M23, Cortex-M33(F)。如果Cortex-M4 / M7 / M33处理器包含了硬件浮点运算单元(FPU),也称为Cortex-M4F / Cortex-M7F / Cortex-M33F。Cortex-M的应用场景虽然不像Cortex-A系列(Mobile领域应用处理器)那样光芒四射,但是其应用的嵌入式领域如前文所述随着IoT的发展需求量巨大。2009年Cortex-M0这款超低功耗的32位处理器问世后,就成了各芯片制造商竞相争夺的香饽饽,仅仅9个月时间,就有15家厂商与ARM签约。至今Cortex-M3与Cortex-M0的合计出货量已经超过200亿,其中有一半的出货是在过去几年完成的,据称每30分钟的出货量就可以达到25万片。Cortex-M的耀眼领域之一便是MCU。如前文所述,随着IoT的发展,MCU的需求也极大增长。在ARM推出Cortex-M之前,全球主要的几个MCU芯片公司大多采用8位、16位内核或者其自有的32位架构内核。ARM推出Cortex-M 之后,迅速受到市场青睐,至今,主要的MCU厂商中几乎都有使用ARM 的Cortex-M内核的产品线。MCU排名前十的厂商,虽然很多都曾用自有架构,但是这些采用自有架构处理器的MCU厂商都面临市场萎缩的问题,使其难以坚守自有架构处理器,譬如瑞萨,目前在工控领域已经推出了多款基于ARM Cortext-M内核的MCU。因此,有声音表示:“未来Cortex-M系列的MCU产品替代传统的8051或其它商业自有架构是大势所趋”。甚至有声音表示:“未来,MCU产品将不再按8位,16位和32位来分,而是会按照M0核,M3核以及M4核等ARM内核的种类来分。” 可以说,32位MCU领域目前几乎成为了ARM内核的独角戏,无敌是多么寂寞啊,笔者也不得不替非ARM架构的商业处理器厂商们拊膺长叹:既生瑜,何生亮啊。2016年7月,日本软银集团以约243亿英镑(约合320亿美元)和高达43%的溢价收购ARM公司。软银之所以高价收购ARM也是因为ARM正在成为智能硬件和物联网设备的标配。在收购ARM公司时,软银CEO孙正义曾表示:“这是我们有史以来最重要的收购,软银集团正在捕捉物联网带来的每一个机遇,ARM则非常符合软银的这一战略,期待ARM成为软银物联网战略前进的重要支柱。”之后,孙正义更表示:“未来20年内,ARM架构芯片的年出货量将达到1万亿颗,ARM能够立刻收集所有实时数据”。 2017年6月,ARM宣布了Cortex-M3和Cortex-M0两款处理器的免前期授权费计划。意味着自此之后ARM Cortex M系列的两款处理器M0和M3均被免除了早期授权费(Up Front License Fee),不过这并不是意味着彻底的免费,使用M0和M3的芯片在量产后仍需向ARM逐片支付版税(Royalty)。虽然32位MCU领域几乎成了ARM的独角戏,但是由于嵌入式市场的多样性,在32位嵌入式微处理器IP市场,也还有其他的处理器IP供应商表现不俗,譬如嵌入式处理器IP市场占有率排名第二Synopsys ARC处理器,也有着出色的表现。不过和ARM强大的生态系统比起来,所有其他非ARM的商业32位处理器都无法对ARM的垄断地位形成撼动。似乎ARM即将统治这个世界,毫无疑问地成为32位嵌入式处理器领域的下一个8051了。吃瓜群众们纷纷表示可以回家洗洗睡了。就在此时,RISC-V走向了台前。1.5
初生牛犊——RISC-VRISC-V架构主要由伯克利大学的Krste Asanovic教授等开发人员于2010年发明,并且得到了计算机体系结构领域的泰斗David Patterson的大力支持。伯克利的开发人员之所以发明一套新的指令集架构而不是使用成熟的x86或者ARM架构,是因为这些架构经过多年的发展变得极为的复杂和冗繁,并存在着高昂的专利和架构授权问题。并且修改ARM处理器的RTL代码是不被支持的,而x86处理器的源代码根本不可能获得到,而其他的开源架构(譬如SPARC,OpenRISC)均有着或多或少的问题。有感于计算机体系结构和指令集架构已经经过数十年的发展非常成熟,但是像伯克利大学这样的研究机构竟然无米下锅(选择不出合适的指令集架构供其使用),伯克利大学的教授与研发人员决定发明一种全新的,简单且开放免费的指令集架构。于是RISC-V架构诞生了,RISC-V (英文读作“risk-five”),是一种全新的指令集架构,\"V\"包含两层意思,一是这是Berkeley从RISC I开始设计的第五代指令集架构,二是它代表了变化(Variation)和向量(Vectors)。经过几年的开发,伯克利大学为RISC-V架构开发了完整的软件工具链以及若干开源的处理器实例,得到了越来越多人的关注。图2
RISC-V架构标志图2016年是RISC-V正式走向开放发展的元年,RISC-V基金会(Foundation)正式成立开始运作,RISC-V基金会是一个非盈利性的组织,负责维护标准的RISC-V指令集手册与架构文档,并推动RISC-V架构的发展,RISC-V架构的目标是:(1)成为一种完全开放的指令集,可以被任何学术机构或商业组织所自由使用。(2)成为一种真正适合硬件实现且稳定的标准指令集。RISC-V基金会负责维护标准的RISC-V架构文档和编译器等CPU所需的软件工具链,任何组织和个人可以随时在基金会网站(https://riscv.org)上免费下载(无需注册)。RISC-V一经推出,便受到了学术界与工业界的巨大欢迎。开放而免费RISC-V的诞生,不仅对于高校与研究机构是个好消息;为前期资金缺乏的创业公司、或成本极其敏感的产品、或对现有软件生态依赖不大的领域,也提供了另外一种选择;而且得到了业界主要科技公司的拥戴,包括谷歌、惠普、Oracle、西部数据等硅谷巨头是RISC-V基金会的创始会员。众多的知名芯片公司已经开始使用(譬如英伟达等)或者计划使用RISC-V架构开发其自有的处理器内核用于其产品。如图3所示是RISC-V基金会的铂金级、金级、银级会员图谱。图3 RISC-V基金会的铂金级、金级、银级会员图谱RISC-V基金会将组织每年两次的公开Workshop(专题讨论会),促进RISC-V阵营的交流与发展,任何组织和个人均可以从RISC-V基金会的网站上下载到每次Workshop上演示的PPT与文档。RISC-V第六次Workshop在2017年五月在中国的上海交大举办,吸引了大批的中国公司和爱好者参与。由于许多现在主流的英文计算机体系教材(譬如,计算机体系结构量化研究方法、计算机组成与设计等)的作者本身也是RISC-V架构的发起者,因此这些英文教材都将相继推出以RISC-V架构为基础的新版本,全美的大多数高校都将开始采用RISC-V作为教学范例,也意味着若干年后的高校毕业生都将对RISC-V架构非常熟知。图4 经典教材计算机组成与设计(RISC-V)版本必须强调的是,RISC-V是一种开放的指令集架构,而不是一款具体的处理器。任何组织与个人均可以依据RISC-V架构设计实现自己的处理器,可以是高性能处理器,亦或是低功耗处理器。只要是依据RISC-V架构而设计的处理器,都可以称为RISC-V架构处理器。除了免费开放的特点,从技术的角度来讲RISC-V架构的最大特点便是简单,非常容易设计和使用。从RISC-V架构诞生至今很短的时间内,在全世界范围内已经出现了数十个版本的RISC-V架构处理器,有的是开源免费的,有的是商业公司私有开发用于内部项目的,还有的是商业IP公司开发的RISC-V处理器IP,其中有多款非常适用于深嵌入式的开源超低功耗处理器内核。同时,作为一种开放免费的架构,RISC-V的软件工具链由开源社区维护,所有的工具链源代码均公开,可以通过RISC-V基金会网站的链接进入RISC-V Tools页面下载。1.6
结语:32位时代,谁能成为深嵌入式领域的下一个8051?原本学霸ARM Cortex-M同学将毫无疑问地成为8051的接班人而掌管深嵌入式领域的32位时代。但是不期而至的新生RISC-V却自带光环,让这场游戏出现了一丝变数。前文中总结了传奇老炮儿8051的先进事迹,分析了它的几个成功因素。在此,我们将其因素归纳为表格,并且将ARM Cortex-M与RISC-V进行横向对比,如表1所示。表1
ARM Cortex-M和RISC-V对比8051的成功因素熟悉计算机体系结构的读者都知道,一款处理器内核架构最终能否取得成功,很大程度上取决于用户群体和软件生态环境。目前此项ARM Cortex-M完胜,ARM经过多年的经营,构建了强大的联盟和城宽池阔的软件生态环境,可以说是兵精粮足,强大得武装到牙齿。但是,前文中曾经探讨过,在深嵌入式领域,对于软件的依赖相对比较低。并且,虽然RISC-V资历非常之浅,但是其架构在开放至今很短的时间内取得了令人惊异的发展速度,越来越多的公司和项目开始采用RISC-V架构的处理器,相信RISC-V的软件生态也会逐步壮大起来。而从另一方面来说,ARM作为商业架构下的处理器IP,具有如下缺点:其不能够进行差异化定制,不具备可扩展性,受私有知识产权保护,需要支付商业授权费用等。这些缺点在开放的RISC-V架构中都不存在,可谓是后生可畏。但是,毕竟罗马不是一天建成的,笔者认为RISC-V架构在短时间内还无法对ARM的地位形成撼动。是商业巨擘ARM将彻底统治这个世界?还是自由战士RISC-V将别开生面?谁又能最终成为32位时代深嵌入式领域内的下一个8051?看来是胜负未可知也,吃瓜群众们也许还要再围观些时日了。作者简介胡振波,曾在Marvell任职ARM架构高级CPU设计工程师,在Synopsys任职研发经理,在比特大陆任职研发总监,具有8年以上的ASIC和CPU设计经验。现就职于武汉聚芯微电子。近来开发并开源了蜂鸟e200系列超低功耗RISC-V处理器内核。今天是《半导体行业观察》为您分享的第1420期内容,欢迎关注。Reading推荐阅读(点击文章标题,直接阅读)★★★ 关注微信公众号 半导体行业观察,后台回复关键词获取更多内容回复 科普,看更多半导体行业科普类的文章回复 DRAM,看更多DRAM的文章回复 光刻,看更多光刻技术相关文章回复 滤波器,看更多滤波器相关文章回复 全面屏,看更多全面屏相关文章回复 双摄,看更多关于手机双摄像头的文章回复 制造,看更多关于芯片制造的文章回复 人工智能,看《零基础看懂全球AI芯片:详解“xPU”》回复 展会,看《2017最新半导体展会会议日历》回复 投稿,看《如何成为“半导体行业观察”的一员 》回复 搜索,还能轻松找到其他你感兴趣的文章!摩尔邀请您加入精英微信群你好,感谢长期对半导体行业观察的关注和支持!为了方便各位精英专家交流,我们组建了一些专业、微信交流群,欢迎你加入,我们还会邀请在摩尔直播App做过技术和行业分享的100+技术大牛入群和大家交流。加群方法:加群主(微信ID:MooreMM-04)为好友,填写加群需求信息,拉你入群。(微信限制每天好友添加数量只有300人,请耐心等待)地域群:上海、深圳、北京、江苏.浙江、西安、武汉、成都.重庆、合肥、厦门.晋华、大连、台湾、新加坡、日本.韩国、美国、欧洲、摩尔直播学习群。专业群:模拟射频设计、EDA.IP、数字芯片设计、模拟混合信号设计、版图Layout、数字PR.验证、晶圆制造Fab、设备EE、半导体材料、半导体设备、封装测试、半导体投资、市场销售、AE.FAE、嵌入式开发、实习交流、采购.IC代理、AI芯片专业微信群规则:1. 专业、高效交流,建议进群请修改群昵称,格式:公司或学校+职位或专业+中文或英文,请服从群主管理,如果多次违规会被请出交流群;2. 原则上每人加不超过3个群,精彩讨论内容,群主会负责在不同群同步,既然加了群,请大家尽量置顶群,积极参与群讨论;3. 群里聊天讨论仅限半导体专业内容,杜绝专业无关内容,特别是养生、拉票、微商等内容,严格禁止,为自己公司打广告以不引起群友反感为限; ","updated":"T05:53:41.000Z","canComment":false,"commentPermission":"anyone","commentCount":3,"likeCount":22,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","sourceUrl":"","publishedTime":"T13:53:41+08:00","links":{"comments":"/api/posts//comments"},"url":"/p/","titleImage":"/v2-12d80017baabfe540c679dddf7c47965_r.png","summary":"","href":"/api/posts/","meta":{"previous":null,"next":null},"snapshotUrl":"","commentsCount":3,"likesCount":22},"":{"title":"致中国半导体工作者的风雨60年 | 半导体行业观察","author":"jyzzzz2012","content":"本文由半导体行业观察整理自互联网。“中国半导体产业的发展已经进入了黄金时代。”这是近几年我们最常听到的一句话。中国半导体产业的发展自新中国成立以来,积累了数代人的心血,值此国庆之际,让我们回顾那60年的风风雨雨。中国半导体产业的发展可以追溯到解放初期的1953年,半导体已经被列入第一次和第二次5年计划的重点科技公关项目,这阶段可以说是中国半导体行业发展的草创时期。此后由于国内和国际形势的剧烈变化,国家几乎停止了对半导体行业的投入。“原子弹之父”钱学森曾经这样感慨道:60年代,我们全力投入“两弹一星”,我们得到很多,70年代我们没有搞半导体,我们为此失去很多。从无到有:草创时期1956年,我国提出“向科学进军”,根据国外发展电子器件的进程,提出了中国也要研究半导体科学,把半导体技术列为国家四大紧急措施之一。从半导体材料开始,自力更生研究半导体器件。为了落实发展半导体规划,中国科学院应用物理所首先举办了半导体器件短期培训班。请回国的半导体专家黄昆、吴锡九、黄敞、林兰英、王守武、成众志等讲授半导体理论、晶体管制造技术和半导体线路。物理学家上海复旦大学教授——谢希德在五所大学――北京大学、复旦大学、吉林大学、厦门大学和南京大学联合在北京大学开办了半导体物理专业,共同培养第一批半导体人才。培养出了第一批著名的教授:北京大学的黄昆、复旦大学的谢希德、吉林大学的高鼎三。1957年毕业的第一批研究生中有中国科学院院士王阳元(北京大学微电子所所长)、工程院院士许居衍(华晶集团中央研究院院长)和电子工业部总工程师俞忠钰(北方华虹设计公司董事长)。与此同时,中国半导体材料从锗(Ge)开始。通过提炼煤灰制备了锗材料。1957年,北京电子管厂通过还原氧化锗,拉出了锗单晶。中国科学院应用物理研究所和二机部十局第十一所开发锗晶体管。前者由王守武任半导体实验室主任,后者由武尔桢负责。当年,中国相继研制出锗点接触二极管和三极管(即晶体管)。1959年,天津拉制出硅(Si)单晶。为了加强半导体的研究,1960年,中科院在北京建立半导体研究所,同年在河北建立工业性专业化研究所――第十三所,即现在的河北半导体研究所。到六十年代初,中国半导体器件开始在工厂生产。此时,国内搞半导体器件的已有十几个厂点。当时北方以北京电子管厂为代表,生产了II-6低频合金管和II401高频合金扩散管;南方以上海元件五厂为代表。1962年,天津拉制出砷化镓单晶(GaAs),为研究制备其他化合物半导体打下了基础。硅器件开始搞的是合金管。1962年,我国研究制成硅外延工艺,并开始研究采用照相制版,光刻工艺。1963年,河北省半导体研究所制成硅平面型晶体管。1964年,河北省半导体研究所研制出硅外延平面型晶体管。在平面管之前不久,也搞过错和硅的台面扩散管,但一旦平面管研制出来后,绝大部分器件采用平面结构,因为它更适合于批量生产。当时接制的单晶棒的直径很小,也不规则。一般将硅片切成方片的形状,如7*7、10*10、15*15平方毫米。后来单晶直径拉大些后,就开始采用不规则的圆片,但直径一般在35-40mm之间。1965年12月,河北半导体研究所召开鉴定会,鉴定了第一批半导体管,并在国内首先鉴定了DTL型(二极管――晶体管逻辑)数字逻辑电路。1966年底,在工厂范围内上海元件五厂鉴定了TTL电路产品。这些小规模双极型数字集成电路主要以与非门为主,还有与非驱动器、与门、或非门、或门、以及与或非电路等。标志着中国已经制成了自己的小规模集成电路。晶体管收音机在半导体器件批量生产之后,六十年代主要用来生产晶体管收音机,电子管收音机在体积上大为缩小,重量大为减轻。一般老百姓把晶体管收音机俗称为“半导体”。它在六十年代成为普通居民所要购买的“四大件”之一。(其他三大件为缝纫机、自行车和手表)另一方面,新品开发主要研究方向是硅高频大功率管,目的是要把部队所用的采用电子管的“八一”电台换装为采用晶体管的“小八一”电台,它曾是河北半导体所和北京电子管厂当年的主攻任务。 第一台每秒钟运算一百万次的计算机 除了收讯放大管之外,之后也开发了开关管。中国科学院在半导体所之外建立了一所实验工厂,取名109厂。(后改建为微电子中心)它所生产的开关管,供中国科学院计算研究所研制成第二代计算机。随后在北京有线电厂等工厂批量生产了DJS-121型锗晶体管计算机,速度达到1万次以上。后来还研制出速度更快的108机,以及速度达28万次、容量更大的DJS-320型中型计算机,该机采用硅开关管。总之,向科学进军的号如下,中国的知识分子、技术人员在外界封锁的环境下,在海外回国的一批半导体学者带领下,凭藉知识和实验室发展到实验性工厂和生产性工厂,开始建立起自己的半导体行业。这期间苏联曾派过半导体专家来指导,但很快因中苏关系恶化而撤走了。砥砺前行:发展初期1968年,组建国营东光电工厂(878厂)、上海无线电十九厂,至1970年建成投产,形成中国IC产业中的“两霸”。毛泽东主席视察南京无线电厂在发展双极型电路之后,不久也开始研究MOS电路。1968年,上海无线电十四厂首家制成PMOS(P型金属-氧化物半导体)电路(MOSIC)。拉开了我国发展MOS电路的序幕,并在七十年代初,永川半导体研究所(现电子第24所)、上无十四厂和北京878厂相继研制成功NMOS电路。之后,又研制成CMOS电路。到七十年代初期,永川半导体研究所,即24所,(它由石家庄13所十一室搬到四川水川扩大而建的)上无十四厂和北京878厂相继研制成NMOS电路。之后,又研制成CMOS电路。  在七十年代初期,由于受国外IC迅速发展和国内“电子中心论”的影响,加上当时IC的价格偏高(一块与非门电路不变价曾哀达500元,利润较大,销售利润率有的厂高达40%以上),而货源又很紧张,因而造成各地IC厂点大量涌现,曾经形成过一股“IC热”。当时,共有四十多家集成电路工厂建成,四机部所属厂有749厂(永红器材厂)、871(天光集成电路厂)、878(东光电工厂)、4433厂(风光电工厂)和4435厂(韶光电工厂)等。各省市所建厂主要有:上海元件五厂、上无七厂、上无十四厂、上无十九厂、苏州半导体厂、常州半导体厂、北京半导体器件二厂、三厂、五厂、六厂、天津半导体(一)厂、航天部西安691厂等等。1972年,中国第一块PMOS型LSI电路在四川永川半导体研究所研制成功。为了提高工艺设备的技术水平,并了解国外IC发展的状况,在1973年中日邦交恢复一周年之际,中国组织了由14人参加的电子工业考察团赴日本考察IC产业,参观了日本当时八大IC公司:日立、NEC、东芝、三菱、富士通、三洋、冲电气和夏普,以及不少设备制造厂。原先想与NEC谈成全线引进,因政治和资金原因没有成匀丢失了一次机遇。后来改为由七个单位从国外购买单位台设备,期望建成七条工艺线。最后成线的只有北京878厂,航天部陕西骊山771所和贵州都匀4433厂。此后,为了加速发展LSI,中国接连召开了三次全国性会议,第一次1974年在北京召开,第二次,1975年在上海召开;第三次,1977年在大三线贵州省召开。   1976年11月,中国科学院计算所研制成功1000万次大型电子计算机,所使用的电路为中国科学院109厂(现中科院微电子中心)研制的ECL型(发射极耦合逻辑)电路。这一阶段,从研制小规模到大规模电路,在技术上中国都依靠自己的力量,只是从国外进口了一些水平较低的工艺设备,与国外差距逐渐加大。在这期间美国和日本已先后进入IC规模生产的阶段。1982年,江苏无锡的江南无线电器材厂(742厂)IC生产线建成验收投产,这是一条从日本东芝公司全面引进彩色和黑白电视机集成电路生产线,不仅拥有部封装,而且有3英寸全新工艺设备的芯片制造线,不但引进了设备和净化厂房及动力设备等“硬件”,而且还引进了制造工艺技术“软件”。这是中国第一次从国外引进集成电路技术。第一期742厂共投资2.7亿元(6600万美元),建设目标是月投10000片3英寸硅片的生产能力,年产2648万块IC成品,产品为双极型消费类线性电路,包括电视机电路和音响电路。到1984年达产,产量达到3000万块,成为中国技术先进、规模最大,具有工业化大生产的专业化工厂。1982年10月,国务院为了加强全国计算机和大规模集成电路的领导,成立了以万里副总理为组长的“电子计算机和大规模集成电路领导小组”,制定了中国IC发展规划,提出“六五”期间要对半导体工业进行技术改造。1983年,针对当时多头引进,重复布点的情况,国务院大规模集成电路领导小组提出“治散治乱”,集成电路要“建立南北两个基地和一个点”的发展战略,南方基地主要指上海、江苏和浙江,北方基地主要指北京、天津和沈阳,一个点指西安,主要为航天配套。1986年,电子部厦门集成电路发展战略研讨会,提出“七五”期间我国集成电路技术“531”发展战略,即普及推广5微米技术,开发3微米技术,进行1微米技术科技攻关。1988年,871厂绍兴分厂,改名为华越微电子有限公司。1988年9月,上无十四厂在技术引进项目,建了新厂房的基础上,成立了中外合资公司――上海贝岭微电子制造有限公司。1988年,在上海元件五厂、上无七厂和上无十九厂联合搞技术引进项目的基础上,组建成中外合资公司――上海飞利浦半导体公司(现在的上海先进)。1989年2月,机电部在无锡召开“八五”集成电路发展战略研讨会,提出了“加快基地建设,形成规模生产,注重发展专用电路,加强科研和支持条件,振兴集成电路产业”的发展战略。日,742厂和永川半导体研究所无锡分所合并成立了中国华晶电子集团公司。第一次大投入:九零工程1990年10月,国家计委和机电部在北京联合召开了有关领导和专家参加的座谈会,并向党中央进行了汇报,决定实施九零工程。首钢NEC电子有限公司1991年,首都钢铁公司和日本NEC公司成立中外合资公司――首钢NEC电子有限公司。1995年,电子部提出“九五”集成电路发展战略:以市场为导向,以CAD为突破口,产学研用相结合,以我为主,开展国际合作,强化投资,加强重点工程和技术创新能力的建设,促进集成电路产业进入良性循环。1995年10月,电子部和国家外专局在北京联合召开国内外专家座谈会,献计献策,加速我国集成电路产业发展。11月,电子部向国务院做了专题汇报,确定实施九0九工程。日,由上海华虹集团与日本NEC公司合资组建的上海华虹NEC电子有限公司组建,总投资为12亿美元,注册资金7亿美元,华虹NEC主要承担“九0九”工程超大规模集成电路芯片生产线项目建设。1998年1月,华晶与上华合作生产MOS圆片合约签定,有效期四年,华晶芯片生产线开始承接上华公司来料加工业务。日,“九0八” 主体工程华晶项目通过对外合同验收,这条从朗讯科技公司引进的0.9微米的生产线已经具备了月投6000片6英寸圆片的生产能力。1998年2月,韶光与群立在长沙签订LSI合资项目,投资额达2.4亿元,合资建设大规模集成电路(LSI)微封装,将形成封装、测试集成电路5200万块的生产能力。日,我国第一条8英寸硅单晶抛光片生产线建成投产,这个项目是在北京有色金属研究总院半导体材料国家工程研究中心进行的。日,北京华虹集成电路设计有限责任公司与日本NEC株式会社在北京长城-饭店举行北京华虹NEC集成电路设计公司合资合同签字仪式,新成立的合资公司其设计能力为每年约200个集成电路品种,并为华虹NEC生产线每年提供8英寸硅片两万片的加工订单。1998年4月,集成电路“九0八”工程九个产品设计开发中心项目验收授牌,这九个设计中心为信息产业部电子第十五研究所、信息产业部电子第五下四研究所、上海集成电路设计公司、深圳先科设计中心、杭州东方设计中心、广东专用电路设计中心、兵器第二一四研究所、北京机械工业自动化研究所和航天工业771研究所。这些设计中心是与华晶六英寸生产线项目配套建设的。1998年6月,上海华虹NEC九0九二期工程启动。日,深港超大规模集成电路项目一期工程――后工序生产线及设计中心在深圳赛意法微电子有限公司正式投产,其集成电路封装测试的年生产能力由原设计的3.18亿块提高到目前的7.3亿块,并将扩展的10亿块的水平。1998年10月,华越集成电路引进的日本富士通设备和技术的生产线开始验收试制投 片,-该生产线以双极工艺为主、兼顾Bi-CMOS工艺、2微米技术水平、年投5英寸硅片15万片、年产各类集成电路芯片1亿只能力的前道工序生产线及动力配套系统。1998年3月,由西安交通大学开元集团微电子科技有限公司自行设计开发的我国第一个-CMOS微型彩色摄像芯片开发成功,我国视觉芯片设计开发工作取得的一项可喜的成绩。日,上海华虹NEC电子有限公司建成试投片,工艺技术档次从计划中的0.5微米提升到了0.35微米,主导产品64M同步动态存储器(S-DRAM)。这条生产线的建-成投产标志着我国从此有了自己的深亚微米超大规模集成电路芯片生产线。通过“九零工程”中国建立了自己的6寸、8寸硅片和晶圆产线,初步实现半导体集成电路的自主化,对国防军工的意义是重大的。我们今天许多耳熟能详的A股半导体公司,我们今天看到许多上市/借壳上市的军工芯片公司,都是在“九零工程”的第一次大投入中开始建设的。随着“九零工程”开展,年半导体集成电路芯片行业的“有效研发投入产值”提升了200%,2004年随着“九零工程”项目全部完成,年行业的“有效研发投入产值”再次提升了253%。体现在同期上市公司业绩收入:年,上市公司整体收入半导体板块增长了13.6倍,分区间看,在年大投入时期,收入规模增长了6.31倍,年,投入产能释放后,收入规模增长了99.56%。十年:中国的崛起2004年之后,到2014年,中国半导体集成电路芯片行业的“有效研发投入”基本是“零增长”,体现在“有效研发投入产值”上,是快速下滑。而年这十年时间,也正是中国半导体集成电路芯片进口快速提升的时期,芯片的进口超过石油,每年亿美金进口额,折合人民币是1.5万亿。但是在这十年中,成立了很多在如今赫赫有名的公司。2000年  ·4月,中芯国际集成电路制造(上海)有限公司成立。  ·6月,国务院18号文件《鼓励软件产业和集成电路产业发展的若干政策》公布。  ·7月,科技部依次批准上海、西安、无锡、北京、成都、杭州、深圳共7个国家级IC设计产业化基地。  ·11月,上海宏力半导体制造有限公司在上海浦东开工奠基。2001年  ·2月,直径8英寸硅单晶抛光片国家高技术产业化示范工程项目在北京有色金属研究总院建成投产。  ·3月,国务院第36次常务会议通过了《集成电路布图设计保护条例》。2002年  ·9月,龙芯1号在中科院计算所诞生。  ·11月,中国电子科技集团公司第四十六研究所率先研制成功直径6英寸半绝缘砷化镓单晶。2003年  ·3月,杭州士兰微电子股份有限公司上市,成为国内IC设计第一股。  ·6月,台积电(上海)有限公司落户上海,并于2005年4月正式投产。  ·8月,英特尔公司宣布成立英特尔(成都)有限公司,并于2005年12月正式投产。2004年  ·9月,中芯国际的中国大陆第一条12英寸线在北京投入生产。2005年  ·中星微电子在美国纳斯达克上市,成为第一家在美国上市的中国IC设计公司。2006年  ·10月,无锡海力士意法半导体在无锡投产。2007年  ·3月,英特尔公司宣布在中国大连建厂。  ·6月,成都成芯8英寸项目投产。  ·12月,中芯国际集成电路制造(上海)有限公司的12英寸生产线(Fab8)建成投产。2008年  ·《集成电路产业“十一五”专项规划》重点建设北京、天津、上海、苏州、宁波等国家集成电路产业园。2009年  ·6月,工业和信息化部发布《关于进一步加强软件企业认定和软件产品登记备案工作的通知》工信厅软[号。2011年  ·1月,展讯发布全球首款40纳米低功耗商用TD-HSPA/TD-SCDMA多模通信芯片SC8800G。  ·2月,国务院发布了被业界称为“新18号文”的《进一步鼓励软件产业和集成电路产业的若干政策》(国发(2011)4号)。  ·9月,上海华虹与宏力签署合并协议。2012年  ·3月,三星投资70亿美元在西安建立芯片生产线,工艺技术水平为10纳米、12英寸硅圆片。  ·5月,财政部、国税总局发布《关于进一步鼓励软件产业和集成电路产业发展企业所得税政策的通知》[财税〔2012〕27号]。  ·6月,中芯国际将联合北京市相关机构共同筹集资金,在北京建设40纳米~28纳米生产线。年的十年时间,中国半导体集成电路芯片产业几乎是“零增长”的“有效研发投入”,不仅严重制约了产业的发展,也严重制约了中国电子制造、通信行业的进一步发展。这一切在2014年得到了改变。第二次大投入号,国家大基金成立是具有标志性意义的,我们统计了年三年以来,中央和各省市合计预期投入的金额规模超过4650亿人民币,而2016年中国国内半导体集成电路产值也才4300亿,第二次大投入的力度远超过当年的第一次大投入。国家大基金成立后,年,中国半导体集成电路产业开始大比例“有效研发投入”,由2014年的系数1.25,提升到5.63,提升了3.5倍,期间“有效研发投入产值”增长了1.26倍。已经呈现明显的“科技红利”扩张趋势。这一时期,中国国内半导体集成电路产值从3015亿元提升到4335亿元,增长了43.7%。可以说,第二次大投入所初步取得的经济效益是有目共睹的。同时,从国务院印发《国家集成电路产业发展推进纲要》、国家集成电路产业投资基金正式设立后,中国半导体行业的并购热潮就被点燃。据不完全统计,各地已宣布的地方基金总规模已经超过2000亿元,成为我国集成电路生态系统中的重要支撑力量。在2000年~2015年的16年里,中国半导体市场增速领跑全球,达到21.4%,其中全球半导体年均增速是3.6%,美国将近5%,欧洲和日本都较低,亚太较高13%。就市场份额而言,目前中国半导体市场份额从5%提升到50%,成为全球的核心市场。致中国半导体工作者又是一年国庆,从1953年至今,中国半导体产业经过了六十多年的发展,在无数奋不顾身,勤勤恳恳的中国半导体工作者的努力下,中国的半导体产业实现了零的突破,从开始一穷二白,到如今的奋力前行。我们不仅依靠自己的努力突破了国外的重重封锁,建立了中国自己的半导体企业,也在不断的发展中,逐渐获得了世界的认可。如今,虽然中国市场已经成为最大的半导体市场,而中国的半导体产业也迎来了“黄金时代”。风雨60年,中国的半导体工作者,辛苦了!今天是《半导体行业观察》为您分享的第1416期内容,欢迎关注。Reading推荐阅读(点击文章标题,直接阅读)★★★关注微信公众号 半导体行业观察,后台回复关键词获取更多内容回复 科普,看更多半导体行业科普类的文章回复 DRAM,看更多DRAM的文章回复 光刻,看更多光刻技术相关文章回复 滤波器,看更多滤波器相关文章回复 全面屏,看更多全面屏相关文章回复 双摄,看更多关于手机双摄像头的文章回复 制造,看更多关于芯片制造的文章回复 人工智能,看《零基础看懂全球AI芯片:详解“xPU”》回复 展会,看《2017最新半导体展会会议日历》回复 投稿,看《如何成为“半导体行业观察”的一员 》回复 搜索,还能轻松找到其他你感兴趣的文章!","updated":"T06:01:13.000Z","canComment":false,"commentPermission":"anyone","commentCount":8,"likeCount":43,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","sourceUrl":"","publishedTime":"T14:01:13+08:00","links":{"comments":"/api/posts//comments"},"url":"/p/","titleImage":"/v2-de3fc5f851938ece47ee2f8cfd0ff2da_r.png","summary":"","href":"/api/posts/","meta":{"previous":null,"next":null},"snapshotUrl":"","commentsCount":8,"likesCount":43},"":{"title":"台积电宣布3nm重磅决定,台湾终于松了一口气 | 半导体行业观察","author":"jyzzzz2012","content":"9月29日,台积电突然发布消息,称公司3nm制程新工厂将会留在台湾,新的先进工厂将设在台湾南部科学工业园区台南园区。在上次声称不排除在台湾以外的地区(暗指美国)兴建3nm工厂,引致台湾整个产业界甚至政府对台积电的未来选址高度关心之后,这次台积电的宣布会给台湾政府和产业界吃下了一颗定心丸。在5nm确定留台以后,台积电这次确认3nm同样留下,会对台湾半导体产业带来非常积极的影响。为什么台湾那么想留台积电关于台积电3nm的选址对台湾半导体产业的影响,经济日报在早前的报道中是这样描述的:台积电3纳米投资,堪称登上全球半导体霸主的最关键投资,政府若不协助解决相关环评等变数,台积电供应链忧心,一旦此投资案真选定美国,台积电后续投资将会往大陆移动,也让台湾好不容易建立的半导体产业链动摇,影响重大。而实际上,这只是一个引子,要理解上面上面这段话,先从台积电在整个半导体产业界的地位和对台湾经济的影响说起。如果从这个角度看,台湾是真离不开台积电。作为晶圆代工产业的开拓者和绝对龙头,台积电的营收和利润和市场占有率是绝对惊人的。根据数据显示,台积电2016 年营收同比成长 11% 至 294.9 亿美元,利润超过150亿美元,市占率也逼近六成(59%)。与之相对比,格罗方德(GlobalFoundries)营收成长 10%,市占率维持在 11%。第三名的联电成长 3%,市占率下滑 1 个百分点至 9%。而从过去几年台积电的发展和其他潜在竞争对手的市占看来,台积电的领先地位无法撼动。根据半导体行业观察之前的统计,从2009年起智能手机的爆发性增长以来,搭上这波便车的台积电发展迅猛,营收屡创新高,税后利润也呈整体上升态势。从去年以来甚至一度超过Intel成为全球市值最高的半导体公司。这种绝对领先带来的经济影响也是明显的。 中国台湾半导体产业协会理事长卢超群表示,2016年中国台湾半导体产业增长7.2%、产值达到2.43万亿元新台币,占全球产值的23%,也占中国台湾GDP的约13%,继续蝉联全世界第二大半导体产业地区,排行仅次于美国。换言之,仅台积电一家企业就占台湾半导体产业产值的39%,而且净利润也非常高,日均利润9亿元新台币。换个角度看,台积电的GDP的收入了占了整个台湾GDP的3.6%,股票市值占了整个台股的17%,这样的企业带来的经济和社会影响是不言而喻的。难怪台湾媒体一直说台积电已经大到了不能倒的地步。3nm留台,对台湾意味着什么?其实台湾对台积电先进工艺留台那么紧张,一方面在于台积电本身强大的吸金能力,另一方面就在于台积电带来的产业集群影响。之前我们的报道也披露过,台积电3nm工厂的总投资可能会突破1100亿人民币,这个庞大数字带来的视觉效果和真正效果也是惊人的。另外,由这个工厂带来的后续一些产业链长尾经济影响,也是蔚为可观的。因为一旦台积电在当地设厂,相关的供应商势必要跟进,在周边设立服务点或者公司,这样带来的经济效益也是惊人的。根据公开信息显示,为了押宝订单,在台积电留台消息还未公布,包括材料的日立化成、台湾富士纺到设备的台湾应材、汉民微测、科林到制程的村田机械乃至于提供零件清洗及测试服务的昆腾等外商纷纷先后决定在台南建立新厂。这些工厂背后带来的人力安置,经济收入和对当地经济发展影响,都是不容小觑的。为了说明台积电对台湾经济的影响。我用一个最基本简单的事例来说明:根据南科管理局提供给环保署的文件,台积电的 5 纳米制程,估计用电量 72 万千瓦,几乎与南科申请新增的用电功率相当。这个数字究竟有多大? 根据台电信息,东部用电量约在 40 到 50 万千瓦之间。 也就是说,台积电一个新厂的用电量,将比整个东台湾 56 万人口的用电量还多上不少。这足以证明台积电对台湾经济的可怕影响力。保证台积电技术的留台,保留台积电的领先,留住客户,给台湾带来更多的收益,这也是台湾当局那么关心台积电3nm选址的另一个原因。台积电在晶圆代工领域一路先后超越了IBM、格罗方德和三星,建立绝对领先优势之后,台积电在工艺领先的前进路上追逐的只有Intel。虽然Intel在早前举办的制程大会上明嘲暗讽台积电与三星在工艺制程节点上夸大宣传,但不能否定台积电已经获得了Fabless的高度认可,包括今年的苹果A11 Bionic,Kirin 970都是采用了台积电的工艺。这两家公司的芯片影响力是巨大的,带来的收益也是惊人的,这就让他们在制造商心里拥有一级重要的地位,尝到甜头的制造商也对自己的技术充满了更多的希望,尤其是看到中国半导体近年来的飞速发展,这更坚定了台湾当局要留住台积电的决心。为了维持公司的技术领先,台积电制定了N-1发展战略,具体是说台积电引进中国大陆的工艺技术一定要比他们台湾当地公司的量产工艺低一代。也就是说如果台积电在台湾量产的最先进工艺是10nm,那么引进中国的工艺最先进只能去到16nm,这样就不违反了台湾政府规定。一旦台积电出走美国,关于技术的授权就有了的更多的新机会。这些不可控的环境,让台湾人特别没安全感。这也是他们的另一层担忧。再考虑到未来摩尔定律的走势不明朗,制程工艺进展不顺利,那就必然会带来新技术的升级,如果3nm外走,保不齐后续的先进工艺和研究都在国外进行了,逐渐地也就没有了台湾的机会。对半导体产业届的影响台积电的这个决定,侧面透露出了摩尔定律必然能演进到3nm,也看到了台积电在这方面的信心。从全球半导体格局来看,台湾在晶圆代工方面的绝对领先将继续保持,美国也将继续其颠覆性的创新。至于中国大陆,经历这事再次看到半导体产业巨大经济影响力,看到制造业方面有不能轻易逾越的鸿沟,对于未来的中国半导体产业布局和晶圆厂的发展路线选择,有了更多的启示。","updated":"T06:10:30.000Z","canComment":false,"commentPermission":"anyone","commentCount":17,"likeCount":49,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","sourceUrl":"","publishedTime":"T14:10:30+08:00","links":{"comments":"/api/posts//comments"},"url":"/p/","titleImage":"/v2-cab594c104724fffc1b1c7ee6c5c5c80_r.jpg","summary":"","href":"/api/posts/","meta":{"previous":null,"next":null},"snapshotUrl":"","commentsCount":17,"likesCount":49},"":{"title":"AI芯片竞争进入白热化阶段 | 半导体行业观察","author":"jyzzzz2012","content":"今年九月,各大半导体厂商纷纷发布了人工智能相关产品。九月初,先是华为的麒麟970集成了寒武纪的人工智能加速器IP。之后,苹果在其发布会上展示了新一代的A11 Bionic SoC,其中集成了neural engine加速器。Imagination也不甘落后,在苹果之后也发布了PowerVR NNA神经网络处理器IP。九月底,Nvidia的开源深度学习加速器(DLA)正式上线,几乎与之同时,Intel也公布了Loihi芯片。本文将盘点以上几款产品,分析异同。华为、苹果、Imagination:面向手机的成熟产品发布,移动端AI时代的敲门砖2016年初,以Eyeriss为代表的深度学习加速器芯片乘着人工智能兴起的东风纷纷破土而出。目前基于深度学习的人工智能算法需要很大的计算量,而传统CPU芯片上用于计算的ALU数目并不多,性能不足以支持深度学习算法的流畅执行。另外,GPU虽然在云端服务器获得大规模应用,但是一方面GPU架构的功耗太大,无法在移动端广泛使用;另一方面GPU最适合的是深度学习训练,在深度学习的推理应用中因为GPU基于batch运算的模式导致延迟过大,也不适合在移动端使用。深度学习加速器目前主打的是性能和能效比,其性能能帮助深度学习的推理流畅执行,而其能效比则保证了算法加速过程中不会消耗太多电池,可以在移动端长时间使用。目前在移动领域,智能摄像头、无人机、手机等都是深度学习加速器潜在的应用领域,其中以手机的应用市场最大。关于深度学习加速器的用法,一般分为芯片和IP两种。芯片的代表如Movidius的Myriad系列(以及基于Myriad芯片的neural stick产品)和,用户可以把芯片集成到自己的系统中来做深度学习加速。然而,在BOM可谓寸土寸金的手机领域,额外加一块芯片加速深度学习几乎不可能,可行的做法是在手机SoC里面集成一块深度学习加速器IP,在手机执行深度学习应用的时候可以把计算放到加速器模块去执行。华为、苹果和Imagination纷纷发布人工智能加速IP华为、苹果和Imagination发布的深度学习加速器产品都是这样的IP模块。这些模块经过长期设计和验证,已经非常成熟,可以进入大规模生产阶段。产品能进入量产阶段意味着之前已经经过了长期的技术积累,正如苹果和华为透露他们的人工智能加速IP至少在两年前就已经立项了,可见这些手机巨头对于人工智能的远见和拿下市场的决心。 目前手机上的人工智能应用应该说还处于非常初期的阶段,硬件和软件属于“先有鸡还是先有蛋”的境况:在没有深度学习加速硬件的情况下开发手机端的人工智能应用,会导致硬件限制执行速度,用户体验不好;而如果没有手机端的人工智能相关应用,硬件厂商往往就不会想到要去做专门的深度学习加速器。而华为、苹果和Imagination推出的手机端深度学习加速器IP可谓是打破了这个僵局,成为手机端人工智能应用普及的敲门砖。华为、苹果和Imagination公布的加速器峰值性能分别是1.96 TOPS、0.6 TOPS和4TOPS,而实测的性能麒麟970可以到300 GOPS(执行VGG-16模型),Imagination约750 GOPS(执行GoogleNet模型),苹果的实测数据还没有公布,估计也是在100 GOPS的数量级。这样的数字能够支持基础的深度学习算法:目前,苹果宣称其A11中的neural engine主要是加速Face ID应用,而华为的展示项目则是实时物体辨识。预期在未来,这些人工智能加速器的应用场景会远远多于这些,同时也促成移动端人工智能应用的井喷式发展。另一方面,我们也应该看到,100GOPS数量级的算法运行计算量更大的实时物体检测(object detection,从画面中同时定位并识别多个物体)还不够流畅,因此深度学习IP还有不少进步的空间。Nvidia DLA:为AI生态铺路的前瞻性产品与华为、苹果等定制深度学习IP模块不同,Nvidia选择了开源其深度学习加速架构DLA。目前,DLA已经在github上发布了其RTL代码可供编译、仿真以及验证,预计在未来Nvidia将进一步公布其C模型等重要设计组件。Nvidia DLA最主要的部分是计算单元,据悉目前DLA会使用Winograd算法来减小卷积的计算开销,同时也会使用数据压缩技术,来减少DRAM访问时的数据流量。Nvidia同时给出了NVDLA构成的两种系统,在比较复杂的大系统中, DLA的接口包括与处理器交互的IRQ/CSB,与片外DRAM交互的DBBIF,以及与SRAM交互的SRAMIF,而在小系统的例子中,则省去了SRAMIF,因为小系统中的SRAM比较宝贵可能没有可供NVDLA使用的部分。在性能方面,NVDLA在使用2048个MAC的时候可以每秒完成269次ResNet-50推理,相当于2.1TOPS的性能,当然其对于内存的带宽要求也达到了20GB/s,接近DDR4系列的最高带宽。那么,Nvidia为什么选择了开源的形态呢?通过观察,我们不难发现目前在人工智能硬件领域,Nvidia已经成为云端人工智能加速的主宰者,而在发展潜力巨大的无人车领域,Nvidia也接连推出多款GPU产品布局,在竞争中也处于领跑地位。在这些Nvidia具有竞争优势的领域,Nvidia的GPU都是作为一种性能强劲的计算加速器存在的。然而,对于产品种类多样而更适合使用SoC产品形态的移动领域,Nvidia一直没有打开局面。之前Nvidia曾经推出过TK系列和TX系列作为带有深度学习和机器视觉硬件加速特性的SoC来试水移动市场,可惜这些产品的功耗都在10W左右,而且成本很高,导致一直无法占领移动端人工智能加速市场。Nvidia最担心的恐怕就是有一家芯片厂商在移动端人工加速市场脱颖而出,由下至上挑战Nvidia在人工智能加速硬件领域的地位。因此,Nvidia开源其DLA加速模块,其实是让全球的SoC厂商帮Nvidia一起优化DLA加速模块,并且帮助Nvidia抢占移动端市场。另一方面,开源DLA也能加速移动端人工智能加速硬件的成熟,这样当硬件不再成为瓶颈后,移动端人工智能应用将迎来爆发。而Nvidia作为深度学习模型训练(GPU)以及优化(TensorRT)工具链生态环境的实际掌控者,在移动端人工智能市场真正蓬勃发展后,即使DLA不带来收入也能从人工智能产业链的上游获得大量收益,因此开源DLA的举动是Nvidia布局人工智能生态的重要一步。Intel Loihi:神经拟态芯片,试验性产品与前述的几家公司不同,Intel推出的Loihi是一款基于神经拟态(neuromorphic)的芯片。目前最流行的深度学习神经网络中,神经网络把人类的神经系统的统计行为抽象为一系列运算(高维卷积以及非线性运算)的数学系统,与真正的生物神经工作并不相同,而之前介绍的几款产品(以及绝大多数其他人工智能加速器硬件)都是加速这类经典神经网络结构的。神经拟态则是几乎完全照搬生物神经系统,试图在模型中完全重现生物神经的工作方式(例如引入神经元电势可以充放电,在电势超过一定阈值后神经元就会放出电脉冲到其他相邻的神经元)。理论上,这种神经拟态芯片可以由异步系统实现,并且有很低的功耗。然而,目前神经拟态结构如何训练仍然是学术界没有解决的问题。Intel发布的Loihi声称可以自我学习,然而学习的效果如何还不得而知。应该说在模型训练问题还没有解决前,神经拟态就基本无法与经典的深度学习在主流人工智能应用里正面竞争,而主要会用在一些实验性的应用,例如利用神经拟态芯片去完成脑科学研究,或者做一些专用场合的高效数据处理(例如三星就使用过IBM的True North神经拟态芯片来实现动态视觉传感器,只有在画面发生变化的时候该传感器才会记录)。而Intel发布的Loihi,也更多是一款试验性质的产品。为什么大家纷纷推出AI芯片产品?在一个月中,几家大公司相继发布AI芯片,这首先说明人工智能应用真正获得了市场的认可。如果我们回顾芯片市场,会发现总是先有软件应用出现,该应用在得到认可后快速发展很快遇到硬件瓶颈,于是推动相应硬件的开发,而在硬件瓶颈突破后,该应用又会获得更快速的普及,从而形成一个正循环。目前人工智能正处于该循环的第二步,即硬件限制了人工智能应用的普及,尤其是在移动端的普及,而各大硬件厂商正是看到了人工智能的巨大潜力,于是纷纷开发相关芯片并争相发布。在未来的移动人工智能市场,由于移动产品的多样性(如要求高性能但是允许高功耗的智能摄像头市场,要求高性能但是同时要求低延迟和低功耗的无人机市场,要求中等性能但是对成本和功耗要求很高的手机市场,以及要求超低功耗但是对于性能要求也不高的物联网市场),预计还是会有多家公司分别占领不同的市场,而不太会出现一家独大通吃所有市场的情况。未来人工智能芯片预计会进入群雄逐鹿的时代。","updated":"T06:16:30.000Z","canComment":false,"commentPermission":"anyone","commentCount":1,"likeCount":28,"state":"published","isLiked":false,"slug":"","isTitleImageFullScreen":false,"rating":"none","sourceUrl":"","publishedTime":"T14:16:30+08:00","links":{"comments":"/api/posts//comments"},"url":"/p/","titleImage":"/v2-b9fd4e6cfae_r.jpg","summary":"","href":"/api/posts/","meta":{"previous":null,"next":null},"snapshotUrl":"","commentsCount":1,"likesCount":28},"":{"title":"EUV光刻的困境 | 半导体行业观察","author":"jyzzzz2012","content":"来源:本文半导体行业观察翻译自semiengineering,作者Mark Lapedus,谢谢。半导体行业观察:极紫外(EUV)光刻技术正蓄势待发,但为了将这项人们期待已久的技术用于大规模生产,还仍然有一些难题有待解决。EUV 光刻是在芯片上图案化微小特征的下一代技术,原本预期在 2012 年左右投入生产。但这么多年过去了,EUV 不断延后,从一个节点拖到了下一个节点。如今,GlobalFoundries、英特尔、三星和台积电都在竞相要在 7nm 和/或 5nm 节点时将EUV 光刻用于大规模制造(HVM);根据供应商的不同,时间规划在 2018 年到 2020 年之间。此外,美光、三星和 SK 海力士还希望将 EUV 用于生产十几纳米的 DRAM。但和之前的技术一样,要将 EUV 投入大规模制造,有一些问题还要解决。芯片制造商还必须权衡各种复杂的利弊关系。基于行业最新的数据,这里简单给出了当今 EUV 所处的状态以及其中的一些权衡:ASML 正在装配其第一款具有生产价值的 EUV 扫描仪,其中使用了人们等待已久的250W 光源,计划将在今年年底前完成。但是,EUV 真正投入大规模应用的时间还不能确定。抗蚀剂是指暴露在光中时可在表面形成图案的材料。目前抗蚀剂还不能达到 EUV 的目标规格。虽然这个规格可以降低,但吞吐量会受到打击。而且有时候与抗蚀剂的相互作用会导致工艺发生变化甚至图案化失败。EUV 防护膜(pellicle)是掩模基础设施的一个关键部分,目前还没有为大规模制造做好准备。防护膜是指防止颗粒落在掩模上的薄膜。所以芯片制造商可能要么需要等待 EUV 防护膜,要么就得不使用防护膜就投入生产——至少在初期可以这么做。尽管如此,即使这些问题没有解决,芯片制造商也还是可以在 7nm 节点时应用 EUV 光刻。非要使用的话,EUV 也可以用在一两层上的制造上。但在 5nm 及以后节点,EUV 还不满足这些节点的更严格的规格,也就是说半导体行业还是必须要投入更多时间和金钱来解决这些问题。“我们离在大规模制造中实现 EUV 的目标越来越近,”Stifel Nicolaus 的分析师Patrick Ho 说,“还有一些事情需要解决,而且客户使用 EUV 处理的层的数量也各不相同。英特尔更保守。三星则更大胆,因为他们也想将其用于 DRAM 和代工/逻辑业务。我相信台积电的 5nm 节点将实现完全的大规模制造,时间上可能是在
年。”很显然,代工客户需要在 EUV 发展曲线上保持领先。为了帮助半导体行业了解情况,Semiconductor Engineering 在本文中对这项技术进行了解读,并分析了EUV 的三大主要部件上的利弊权衡——扫描仪/源、抗蚀剂和掩模基础设施。为什么要用 EUV? 目前,芯片制造商使用 193nm 波长的光刻技术在晶圆上描绘精细的图案。但实际上,193nm 浸没式光刻在 80nm 间距(40nm 半间距)达到了极限。因此,从 22nm/20nm 开始,芯片制造商开始在使用 193nm 浸没式光刻的同时配合使用各种多重图案化(multiple patterning)技术。多重图案化是一种在晶圆厂中使用多个光刻、蚀刻和沉积步骤的工艺,其目标是为了将间距减小到 40nm 以下。图 1:自对准衬垫料可以避免掩模不对准的问题,来自 Lam Research图 2:双重图案化可以增加密度,来自Lam Research多重图案化是有效的,但步骤更多,因此会增加流程的成本和周期时间(cycle time)。周期时间是指晶圆厂加工一块晶圆从开始到结束的总时间。为了解决这些问题,芯片制造商需要 EUV。但因为 EUV 在 7nm 节点时还无法进入初始应用阶段,所以芯片制造商首先将使用浸没式/多重图案化。人们希望在 7nm 后期能够用上 EUV。而 5nm 节点就必须使用 EUV 了。“从光学上看 7nm 节点就可以实用了,但可能在成本方面并不理想。”D2S 首席执行官Aki Fujimura 说,“行业希望随着 7nm 产量的攀升,能够在同样的设计规则上使用EUV。而从实际的角度来看,如果没有 EUV,5nm 将无法实现。”EUV 最初是针对 7nm 节点的触点和通孔设计的。据GlobalFoundries 称,为了加工触点/通孔,7nm 节点的每个光刻层都需要 2 到 4 个掩模。而如果使用 EUV,那么每层就只需要 1 个掩模来加工触点/通孔即可,而且 7nm 和 5nm 节点都是这样。据 ASML 称,理论上 EUV 能简化流程,并且可将晶圆上的周期时间减少大约 30 天。GlobalFoundries 首席技术官 GaryPatton 说:“这是一个非常好的权衡,因为你把触点的四重图案化或三重图案化换成了一个掩模。这也不会影响到任何设计规则,所以客户能够在周期时间上取得优势,从而得到更好的产量。当 EUV 技术成型之后,我们将会将其过渡到我们做 metal level 和 shrink 的地方。”所以 EUV 在 7nm 节点是可行的,有人甚至认为使用单重图案化就可以。但在 5nm 节点,规格要求更严格,特征尺寸变得更小。为此芯片制造商需要使用多重图案化的 EUV,这将是最复杂最昂贵的工艺。早期采用 EUV 的公司希望在 2019 年到 2020 年左右将 EUV 用于 7nm 节点。“这差不多就是工作的中心。我们正努力更加进取。”GlobalFoundries 高级研究员和高级技术研究总监 Harry Levinson 表示,“四大主要芯片公司的 HVM 都规划在未来一两年。现在真正的问题是谁会成为第一,谁又将是第二。”光源问题 但在此之前,芯片制造商必须首先将 EUV 投入大规模制造(HVM)。事实已经证明,这比之前预想的还更加困难,因为 EUV 光刻复杂得让人难以置信。图 3:EUV 的复杂性,来自ASML在 EUV 中,光源会将等离子体转换成波长 13.5nm 的光。然后,这些光会在一种包含 10 个多层镜面的复杂配置方案中反射。然后这些光会经过一个可编程的illuminator 并抵达掩模。在这里,光还会在另外 6 个多层镜面上反射并以 6% 的角度抵达晶圆。图 4:准确反射的光,

我要回帖

更多关于 半导体的导电性 的文章

 

随机推荐