番茄花园

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索

最近看过此主题的会员

查看: 772|回复: 1

[硬件资讯] 摩尔定律又失效了,一块手表将替代全世界的计算机

[复制链接]
发表于 2016-5-15 20:11:59 | 显示全部楼层 |阅读模式
  我已经不下四次看到过摩尔定律即将灭亡这样的论调出现了。
  英特尔首席执行官布莱恩·科兹安尼克(Brian Krzanich)在上个月公司发表的一项声明中轻描淡写地写道。
20160515_193332_871.jpg

  第五次,这至少是第五次有人试图昭告摩尔定律的失效。之前的几次全部都被证明为虚惊一场,英特尔甚至时常将之当做公开场合的笑话,直言公司有方法,也知道该如何进一步开发原子级别的半导体。摩尔定律历经半个世纪,依然统领着计算机行业,无人可将之撼动。但这一次,或许是真的。主角的名字叫做量子计算机。
  1946年2月14日,世界上第一台通用计算机ENIAC诞生了。这是台耗费无数工时人力制造出的庞然大物:
  ENIAC长30.48米,宽6米,高2.4米,占地面积约170平方米,30个操作台,重达30英吨,耗电量150千瓦,造价48万美元。它包含了17,468根真空管7,200根晶体二极管,1,500个中转,70,000个电阻器,10,000个电容器,1500个继电器,6000多个开关,每秒执行5000次加法或400次乘法,是继电器计算机的1000倍、手工计算的20万倍。
20160515_193314_385.jpg

  很长一段时间,人们内心都植入了这样的想法:计算机永远不会走进日常生活,无论是体积和造价,看起来都是那样的令人难以承受。而后来,如你所见,个人电脑变得只有书本大小厚薄,而计算速度更是超过了ENIAC千万倍不止。这一切却早在1956年就被神奇地预言。这便是“摩尔定律”的魔力。
  人类是善于总结的生物,他们总是试图从纷繁多变的事实中,抽离出稳定不变的的真理,从而指导未来的航向。早在20世纪50年代初,科学家们就开始猜测,或许存在一种模式,可以揭示技术变化的速度,帮助人类预测未来。听起来很容易,但放在那个时候,就像没有人会异想天开的认为人类可以进行太空旅行一样荒谬。
  1956年4月19日,一篇对于电子行业发展趋势预测的文章《让集成电路填满更多的组件》被发表在《电子学》(Electronics)35周年特刊上,平静地就像落入大海里的一粒沙。谁也没想到,日后,这篇看似荒诞大胆的文章的预判却统领了计算机行业将近五十年,揭示了隐藏在技术背后的真理。而这篇文章的作者正是戈登·摩尔,揭示的规律被人们称为“摩尔定律”。
20160515_193314_863.jpg

  这篇论文,区区3页纸的篇幅,却是迄今为止半导体历史上最具意义的论文。在这篇文章里,摩尔天才地预言道:当价格不变时,集成电路上可容纳的元器件的数目,约每隔18-24个月便会增加一倍,性能也将提升一倍。换言之,每一美元所能买到的电脑性能,将每隔18-24个月翻一倍以上。举个例子,你现在买不起某台电脑没关系,你大可以等上十八个月,因为到那时,同样的电脑只需要一半的价钱了。(实际情况并非如此,后面会解释)
  彼时英特尔尚未诞生,戈登·摩尔也还只是仙童半导体公司(Fairchild Semiconductor)的一名工程师。这是他和另外七个好朋友一同创业的成果,公司主营开发和生产商业半导体器件,是当时知名的半导体公司,人们说:“进入仙童公司,就等于跨进了硅谷半导体工业的大门”。
20160515_193315_220.jpg

  “八叛逆”(图片来自Wikipedia)
  仙童半导体公司在1959年首先推出了平面型晶体管,紧接着于1961年又推出了平面型集成电路。这种平面型制造工艺是在研磨得很平的硅片上,采用一种所谓”光刻”技术来形成半导体电路的元器件,如二极管、三极管、电阻和电容等。只要”光刻”的精度不断提高,元器件的密度也会相应提高。因此平面工艺被认为是”整个半导体工业键”,是摩尔定律问世的技术基础。
  说来也巧,摩尔定律的发现其实很简单。在1956年的某一天,摩尔在准备一个关于计算机存储器发展趋势的报告。他整理了一份观察资料。在他开始绘制数据时,发现了一个有趣而惊人的现象。每个新芯片大体上包含其前任两倍的容量,每个芯片的产生都是在前一个芯片产生后的18-24个月内。如果这个趋势继续的话,计算能力相对于时间周期将呈指数式的上升。经过思考和绘制趋势图,摩尔定律诞生了。
  但也正是因为这种观测和推测,摩尔定律严格的说并不难算“定律”,它只不过是描述了一种让电脑价格成倍降低的生产制造过程变化的速度。而且摩尔定律的雏形甚至算不上严谨,摩尔本人在联合好朋友诺伊斯创立英特尔之后的1975年,在IEEE国际电子组件大会上提交了一篇论文,根据当时的实际情况对摩尔定律进行了修正,把“每年增加一倍”改为“每两年增加一倍”,而普遍流行的说法是“每18个月增加一倍”,所以现在的“摩尔定律”很难算得上是原汁原味的“摩尔定律”。
  1997年9月,摩尔在接受一次采访时声明,他从来没有说过“每18个月增加一倍”,而且SEMATECH路线图跟随24个月的周期。后来还出现了很多新摩尔定律,以及人们把摩尔定律套用到任何以指数式发展的行业或者用以不费力地解释现象。即使摩尔定律的内涵变得越来越宽泛而不够“科学性”,但是你依然无法否认摩尔定律的作用和意义,至少英特尔这家公司自身就是一个强力的佐证,见证着摩尔定律的辉煌。
20160515_193315_629.jpg

  1965年
  戈登·摩尔在《电子学》杂志上的一篇文章中,提出了他关于电子元件排布密度的著名观察论断。
  1971年
  英特尔推出首款微处理器4004,引领世界进入消费者科技时代。
  1977年
  在能力稳步增强的微处理器的帮助下,苹果推出早期最成功的个人计算机之一Apple II。
  1989年
  英特尔推出用于超级计算领域和科学领域的i860处理器。这是第一款容纳了超过100万晶体管的微处理器。
  1993年
  英特尔宣布打造Pentium处理器,该处理器容纳的晶体管数量是公司此前处理器的三倍。
  2005年7月
  微处理器停止发展的脚步,芯片面临着一大威胁:其运转温度很有可能会变得和太阳表面温度一样高。
  2007年
  单枚微芯片上可以容纳的晶体管数量超过了十亿,苹果推出第一款iPhone,将手机变成一种掌上电脑。
  2015年
  英特尔延后了将业务转向以下一代十纳米级制造工艺为基础打造的微处理器的时间,暗示摩尔定律已经失效。
  有了摩尔定律的存在,让所有IT从业者意识到自己必须以更短的时间,投入更多的资金来保证下一代产品的顺利开发,而不至于被淘汰。同样的,如果完全按照摩尔定律,那所有顾客都等个十几个月或者几个月,买更便宜的不就好了,那生产计算机和配件的厂商可就太惨了。事实并非如此,你现在买一台电脑,并不比十年前便宜多少。速度用起来有快几百倍么?好像也没有。
  因为软件和系统在吃掉根据摩尔定律不断推陈出新的硬件,很多年前整个电脑系统也就几十K,软件也非常小,但是现在一个系统甚至一个软件动辄好几个G。所以你并不会觉得现在的电脑运行速度疾如闪电,即使英特尔的酷睿i5处理器,处理性能是英特尔早期的4004处理器的3500倍,能效是9万倍,成本便宜了6万倍。打游戏该卡还是卡。同样的,如果软件和系统不升级,用户就没有动力买新的硬件,新的CPU,即使硬件发展再快也毫无用处。
  另一方面,指数爆炸增长是非常可怕的,对于硬件行业很快就会走到瓶颈,摩尔本人曾经就说过,任何事物都会有极限,受到一些自然基本法则的支配。
  我记得史蒂芬·霍金(Stephen Hawking)曾经到硅谷做过演讲。演讲结束后,有人问他怎么看待集成电路的技术极限。尽管史蒂芬对集成电路了解不深,但他提出了两个技术极限:光的极限速度和物质的原子本质。我非常同意他的观点。我们目前已经很接近“原子”极限(注:晶体管的尺寸已到了100纳米以下,而原子的直径在0.01纳米到0.1纳米之间)。而芯片的运行速度也越来越快,但离光速(注:真空中光速最快,为3*108m/s)还很远。这两个都是最基本的自然法则,我们很难达到和超越这个极限。这也是未来几十年里工程师们需要接受的挑战。
  一旦我们突破了这些极限,事情就完全不一样了。技术的发展再也不是让东西变小、排布更密。那个时候,一块芯片上能够继承几十亿个晶体管,我们的创新空间也会前所未有的大。现在还有其他技术蕴含的发展潜力可能会超过集成电路。纳米产品也开始走入市场,石墨氮原子层等新材料也吸引了工程师们的目光。我并不是很了解这些领域,无法明确哪个领域会最快突破,但这些领域的发展速度很难和集成电路相媲美。毕竟,很难有技术能击败继承了几十亿甚至上百亿个晶体管的芯片。
20160515_193316_134.jpg

  摩尔也考虑过摩尔定律的失效:
  以后的技术发展速度会减慢,这是任何技术都会遇到的问题。我猜测未来十年左右,摩尔定律可能会逐步退出历史舞台。这很正常。
  摩尔定律虽然受到软件和系统的掣肘,你依然能够感受到这条定律为你带来的好处:你可以买到几百块的智能手机,还可以用电脑处理十年前无法处理的高复杂度的工作。英特尔也遵循着他的创始人摩尔所创造的摩尔定律,一步一步成长到今天的巨头地位。在2000年后,英特尔基本上垄断着处理器市场。甚至可以说在微机时代的领导者就只有英特尔和微软,但是英特尔最大的问题可能就是过于依赖于摩尔定律,一旦摩尔定律被宣告终结,这个巨头如果不能成功转型,那便只能眼睁睁看着帝国辉煌的落幕。
  看着现在英特尔伟岸的遍布全球的身躯,傲慢睥睨一切,想起摩尔本人的口头禅——改变是我们终身的热爱。而英特尔也是一度依靠这种不断改变,追求技术的精神走到了霸主的地位。
  1981年12月,英特尔公司推出8087芯片,日本松下公司毫不示弱地拿出3200芯片。当时64K动态随机存储芯片是电脑界一致看好的重头戏,它包含65536个元件,不仅能读,而且能够像黑板一样擦写。但日本的64K芯片却以它低成本和高可靠性,迅速占领了美国,使英特尔的单个芯片价格在一年内就从28美元惨跌至6美元,英特尔吃了一场大败仗。
  摩尔痛定思痛,决心放弃存储芯片市场,转向了微处理器(控制芯片)市场。摩尔准确预测到了个人电脑以后的成功。他决定将英特尔进行战略转移,专攻微型计算机的“心脏”部件—CPU,正是这一决策,最终确立了英特尔今日在全球微处理器市场上的垄断地位。
  在那之后,英特尔根据摩尔定律,不断地更新升级,自己淘汰自己,垄断着微机处理市场。
  摩尔定律失效,这已经不是头一次有人提起,甚至成了硅谷人士私下茶余饭后的谈资。如果你所有的公司业务都和摩尔定律有关,而摩尔定律正在逐渐失效,你会如何应对?
  所以,相比摩尔本人的客观谦逊,英特尔不太愿意相信自己辛苦呈现的东西将会走向终结。
  IBM成功创建了一个五量子比特级的计算机工作原型,它已经在互联网上对公众进行开放。
20160515_193316_536.jpg

  这则消息在巨量信息流涌现的今天很难引起人们的注意,甚至不明白它的字面意思,什么是量子计算机。
  量子计算技术(quantum computing),是一种利用量子物理学(解释物质和能量如何互动的物理学分支)重新设想电脑工作方式的技术。而量子计算机则可以利用最基本的能量和物质特性,实现超越当今数字系统的计算速度。
  量子计算机和普通计算机有着本质的区别,前者利用了量子力学的特点,可以达到很快的运行速度。普通电脑使用的是0和1的形式,而量子计算机使用的是量子比特,它可能是0或者1,甚至是两者之间的一些东西。所以,在量子计算里一个简单的比特可以同时容纳两个值,或者说两个比特能同时容纳四个值。这也是量子设备在处理数据中,有着极快速度的原因。
  虽然IBM制造的计算系统只包含五个量子比特,无法替代当前的个人计算机。但是在不遥远的未来,这台机器将扩展成拥有数百个量子比特的计算机,能够以高于当今计算机的速度运行各种不同的算法。能够以远远高于当今计算机的速度执行任何任务。未来一块纽扣大小量子计算机的算力甚至能够超过地球上所有传统计算机算力之和。
  虽然可见的时间内,量子计算机或许都难以得到真正个人化应用,也没法进行常规运算,只是作为传统计算机的一个补充。但是谁知道呢,想到那个曾经只能军用如此笨拙、无人相信能够走进个人生活的通用计算机,却走进了千家万户。
  如果实现,在那时,摩尔定律统治了半个世纪的时代将会结束,新的篇章将会开启。

升级   0.01%

发表于 2016-5-16 21:45:28 | 显示全部楼层
楼主发贴辛苦了,谢谢楼主分享!
您需要登录后才可以回帖 登录 | 注册

本版积分规则

快速回复 返回顶部 返回列表