cpu的发展前景
微处理器(CPU)刚开发出来的时候,人们对它寄予厚望。他们要求微处理器应该具有:音量(屏蔽广告)
重量轻、可靠性高、价格低、应用广泛。可以说现在的CPU符合这些要求,所以为了更恰当的把握CPU的发展趋势,必须对CPU的各个方面进行综合分析!
1,数字
现在的CPU和现在的CPU一个重要的区别就是位数的巨大差异。我们来看看CPU在位数方面的发展:4位数:INTEL4004;8位数:INTEL8080/8085,MOTOROLA6800/6802,ROCKWELL6502;16: INTEL8086/8088,MOTOROLA68000;32位:英特尔80386/80486及更高版本的CPU,64位:英特尔安腾和AMD K8。看看这些4位到16位的CPU。就算是“大虾”级别的人也未必用过。不过我们也能从一些比较老的便携计算器上看到4位CPU的影子。从上面的例子来看,增加CPU位数是必然趋势,那么为什么还要增加CPU位数呢?增加位数有什么好处?我们知道,随着计算机技术的发展,CPU要处理越来越复杂的数据,这就要求增加CPU的数据带宽。目前有效的方法只有两种:1和提高CPU I/O口频率。2.增加CPU数据传输端口的宽度。就第一种方法而言,无疑是两种方法中最简单的一种。但提高频率需要将生产工艺提高几个数量级,这无疑增加了生产成本,延长了生产周期。如果采用第二种方法会好很多:CPU I/O接口带宽增加,处理的数据增加,多个周期能完成的任务,一个周期就能完成!虽然32位的PIII、P4、雷鸟、毒龙现在在我们手里那么火,但最终还是要面临淘汰的厄运。如果说英特尔威拉米特P4和AMD雷鸟XP的发布只是一个先兆,那么64位英特尔安腾和AMD K8才是它们真正的“终结者”!这两款CPU中的INTELITANIUM可以说是完全不合常规了。完全遵循IA(IntelArchitecture英特尔架构,英特尔公司开发的x86芯片结构)-64架构,不兼容IA-32架构。虽然K8与IA-32兼容,但它是IA-32上的改进系统,并且它仍然遵循X86-64架构。
2.包装
对于用户来说,他们并不关心CPU采用什么封装技术。它们更多的是和新CPU的接口形式有关。显然,大多数人都厌倦了频繁更换CPU的接口形式所带来的额外投入。其实封装是CPU接口转型的重要原因之一。最典型的例子就是从SOLT1到SOCKET370的转换。我们可以注意到当时SLOT1赛扬的PCB上并没有集成的二级缓存,也就是说它的二级缓存仍然是片内的形式。PPGA封装改造后,去掉了不必要的PCB板,有效降低了成本。还有一个更重要的原因是,用PPGA封装来制造赛扬,可以把制造难度降低一个等级。现在,威盛的乔舒亚·C3、英特尔PIII、威拉米特·P4、AMD速龙和雷鸟都放弃了原来的封装形式,转而采用Socket370、Socket 462和Socket A..正是因为芯片集成度高,我们以后很难再看到SECC2这样的大封装形式了。所以封装小型化将是未来CPU封装的主导思想!
3.速度
恐怕CPU的速度一直是我们最关心的问题。速度表示CPU的计算能力。以前因为CPU速度低,我们可以计算执行指令的平均时间。例如,INTERL386/486的平均指令执行时间为0.05毫秒。现在我想没有人会无聊到去计算CPU执行指令的平均时间,但这也从一个侧面反映了今天CPU的速度惊人。从1971年INTEL的1 Hz 4004出来到2001年将取代WILLAMETTEP4,2.0G Hz的TULLOCH三十年增长了2000倍。但是要知道,虽然速度是提升CPU性能的法宝之一,但是仅靠无止境的提速,CPU很难有质的飞跃。如果单纯的提高CPU的核心频率,结果只是提高了CPU内部的带宽。这并不能提高CPU和外部交换的数据吞吐量。虽然我们可以通过给CPU增加L1和L2CACHE来缓解相应的矛盾,但是因为CACHE的速度已经和CPU核的速度一样了,所以增加它的频率是没有意义的。而且生产工艺是限制CPU速度的重要因素。0.25微米生产工艺生产的CPU,理论上最高速度可以达到600Hz;0.18微米生产工艺生产的CPU,“理论上”最高可以达到1300 Hz左右的速度。但是通过工艺改造,还是可以生产出0.1.8μ m工艺的CPU,现在的P4就是一个很好的例子。无论如何,重新设计或升级CPU要比加速好得多。我们来看一下366 Hz的老款赛扬超过550 Hz和PIII500的多媒体效率对比测试,可以发现550 Hz的老款赛扬的多媒体效率甚至低于少50 Hz的PIII500。所以速度对CPU很重要,但不是一切!
4、缓存
缓存一直是CPU中不可小觑的元素。那么缓存到底是如何工作的呢?首先要知道,所有要用到的数据都存储在主存中,有些存储在缓存中的数据是主存中数据的副本。当CPU访问主内存时,它首先检查缓存。如果要访问的数据已经在缓存中,CPU可以快速完成访问。我们称这种情况为成功。如果数据不在高速缓存中,CPU必须从主内存中获取数据。看起来缓存可以有效提高CPU读取数据的速度,那么我们为什么不把主存中的数据全部放到缓存中呢?换句话说,我们为什么不增加缓存的容量来容纳更多的数据呢?其实答案很简单,和前面提到的hit问题有关。存储在缓存中的数据不仅是主存中的副本,也是随机数据。这意味着即使缓存中有数据,也不一定是CPU想要访问的。如果缓存很大,CPU在里面找不到需要的数据,就会造成未命中。可以说这段时间都浪费了。换句话说,如果使用小型缓存,即使没有找到需要的数据,查找数据的时间也比大型缓存少很多。但是你可能注意到了,如果使用小缓存,CPU的命中率会大大降低。之所以上面说了这么多,是为了纠正大多数人的一个本质错误:缓存越大越好。所以大缓存不是CPU缓存未来的发展方向。事实上,CPU的性能和缓存的大小是以负指数二项式增长的。也就是说,当CPU缓存的大小达到一定程度时,如果不及时更新缓存搜索算法和缓存轮换算法,CPU性能就不会有实质性的提升!在目前的条件下很难提高算法的效率,所以在其他方面,INTEL和AMD都在缓存上做了很大的文章。以INTEL的COPPERMINE PIII为例,它仍然使用老PIII KATMAI的内核,在转换成SOCKET370接口后去掉了时钟频率为512KB 1/2的L2缓存。相反,它是ON-DIE的256KB全速L2缓存。这里需要说明的是,这个256KB的L2缓存并不是板载CACHE缓存的缩减,也就是说,它不是SDRAM,也不是三星或NEC等内存厂商提前卖给英特尔的,而是完全由英特尔制造的。COPPERMINE首次在二级缓存中使用ATC(ADVANCE TRANSFER CACHE)高级传输缓存机制。ATC主要负责优化缓存到CPU核的路径。说白了就是增加了L2 CACAHE和CPU内核之间数据通道的带宽。另一个措施是使用ASB(高级系统缓冲)高级系统缓存机制。ASB主要负责优化系统总线的L2缓存。看来未来的缓存在带宽和传输上有更多的文章可做!
5、生产技术与集成
一段时间以来,0.18微米的制造工艺让超频发烧友们如鱼得水。然而,在过去很长一段时间里,我们一直在使用0.35微米工艺制造的CPU,包括INETL 486/586、PII KLAMMATH和AMD K5。0.25微米的替代工艺,0.18微米,已经很久不骄傲了,现在被0.13的制造工艺替代了。0.35微米和0.25微米对我们来说是显而易见的,功耗大,发热量大,管芯尺寸大,这些都是今后制造CPU需要进一步研究的问题。就我们现在说的0.18微米的生产工艺来说,还不完善。像铜矿的CPU采用0.18微米工艺,但还是用传统的铝介质,所以对于CPU制造还是不太理想。如果CPU是铜介质的就好很多了。由于铜介质芯片的电阻系数比铝介质低,所以芯片的运行速度、发热量等性能比使用铝介质的0.18微米CPU有了很大的进步。到目前为止,还没有大规模采用铜介质芯片,英特尔也没有生产0.18微米工艺的铜介质芯片。现在2001,Intel推出了0.13微米工艺的铜介质芯片PIII-T。集约化是推动生产技术进步的直接原因。早期INTEL 8080 CPU的晶体管集成度超过5000管/芯片,而其继任者INTEL 8085 CPU的集成度仅为10000管/芯片。1977之后,由于VLSI的成熟,单个硅片上可以容纳上万个灯管。即使在很短的时间内,变化也是巨大的:像PIII这样的改进产品COPPERMINE在晶体管集成方面远远超过了它的兄弟KATMAI。其中COPPERMINE有2800万,KATMAI只有950万。2800万是950万的近3倍。如果英特尔用0.25微米工艺像以前做KATMAI一样做COPPERMINE,恐怕要爆了!此外,大多数CPU制造商已经淘汰了古老的HMOS处理技术,基本上使用CMOS处理技术。特别是在0.25微米的工艺中,CMOS(互补金属氧化物半导体)技术被广泛应用。以前我们常说“宽容是伟大的”,现在这句话对于CPU来说没有意义了。或许在不久的将来,CPU真的可以达到无“微”的地步!
6、超低电压和功耗
从分科题目可以知道CPU在这方面的发展方向。当然,电压和功耗与生产工艺和集成度密切相关。我们很难想象第一台计算机问世时的情景:巨大无比,上万个管件堆在一起;有专门的发电机组为它发电;散发的热量让它所在的房子看起来像个大烤箱。即便如此,它的计算能力也没有我们手头的便携式计算器强。我们现在真的感觉不到“火炉”的味道,一个侧面反映了现在CPU的低功耗。像市场即将出现的AMD雷鸟,1Hz的功耗只有54W。能源短缺是人类面临的重要问题,而新一代CPU在这方面为我们起到了示范作用!功耗下降了,自然就不需要大电压了。电脑CPU芯片小型化后,使用的最高电压是5V。从5V的起点,降到了杨二用的1.65V,甚至新C3的1.3V。虽然下降幅度不是很大,但是要知道1的电压。x伏特已经很小了。即使有进一步下跌的空间,这样的空间也不是很大。所以哪怕下降0.05V都是很大的进步!对于台式机和笔记本电脑来说,低功耗超低电压的CPU必将成为他们的首选!
7.RISC和X86
说到把握CPU未来的发展方向,不深入了解RISC指令结构和X86指令集是不可能的!要知道,它们是整个CPU的灵魂。那么它们起什么作用,有什么功能呢?先说X86。1978年,英特尔推出了代号为8086的16位处理器,同时还推出了代号为8087的数学协处理器。因为这两种芯片在当时的指令集上是兼容的,所以人们统称它们为X86指令集。随着时代的发展,INETL陆续推出了更新型号的CPU,但它们都有一个相同的特点,那就是仍然兼容原有的X86指令集。于是在英特尔的后续产品中,我们看到了以X86形式命名的CPU产品,比如286、386、486、586。也就是说,像486、586这样的CPU还是延续了X86的序列。其实X86并没有被淘汰。很重要的一个原因就是大部分CPU还是兼容的,采用X86指令集。最明显的例子就是AMD的K8。K8是基于X86-32改进的64位CPU。而且是雷鸟系列CPU的继任者,所以X86在不久的将来会“疯狂”一阵子。而且用了这么多年,技术已经相当成熟了。恐怕马上被淘汰的命运最近不会降临在它身上了。从AMD的角度来看,他们认为X86还是有魅力的,但是从一些迹象来看,X86已经在定型了。这个标志可以从它的产品K7上反映出来。值得人们称赞的是,K7采用EV6公交车。EV6总线其实就是ALPHA高性能RISC的处理器总线21264。从中我们隐约看到了RISC的影子,RISC几乎成为了高性能CPU的代言人,也确实是CPU未来将要采用的重要结构。事实上,我们不仅可以从K7身上看到RISC的影子,而且可以从现有的大多数CPU上看到RISC的影子。因为从CPU内部结构来看,现在大部分CPU都是RISC CPU,而不是真正意义上的。为什么不是真正的RISC CPU?以奔腾处理器为例,它的核心是一个RISC处理器。只是它比普通RISC处理器多了一个一级解码器。这个解码器主要负责将输入CPU的CISC X86指令解码成RISC的内部指令,然后传递给RISC内核进行处理。当然多了一个解码步骤,速度自然会降低。
未来CPU采用RISC,自然说明它有很大的优势。首先,我们先从RISC的原理说起!学过汇编语言的朋友都知道,计算机指令的工作流程是:取指令,翻译指令,执行指令。指令的基本结构是操作码加地址码。因为操作码和地址码的长度不固定,所以指令有长有短。这也导致了简单指令和复杂指令的区别。过去,大多数CPU使用CISC的传统指令结构。也就是说,复杂指令用于支持编程语言、应用程序和操作系统。但是因为复杂的指令影响CPU的执行速度,所以效率低,成本相当高。随着对计算机的了解越来越多,发现计算机执行的指令90%以上都是简单指令,很少有复杂指令。在这种情况下,人们加强了对简单指令的研究,于是“精简指令结构——RISC”诞生了。RISC的优越性能完全是因为指令短。由于RISC处理器处理的是等长的短指令,这就大大简化了解码器的设计,节省了许多微码结构。同时,RISC大大简化了每个时钟周期的任务,这样由于每个时钟周期要完成的任务相对较少,就可以尽可能缩短时钟的脉冲间隔,从而提高CPU的工作频率。所以在同样的制造工艺下,它的时钟频率比CISC处理器高。基于以上原因,RISC处理器的性能更优越。我们知道,同等位数的CPU有三种有效的提升性能的方法:1,提高CPU主频,很难有质的飞跃;2.重新设计处理器工程组件,换成更好的算法,提高指令执行效率,但现在大部分算法都已经被人开发出来了,大概很难从中榨出点油水。3,提高指令的并行处理水平,而这种方法是最现实的,我们现在使用的很多CPU都采用这种方法来提高效率。显然,为了提高处理器的性能,提高指令的并行处理水平是我们首先要解决的问题。也有三种解决方式:1,采用流水线技术;2.使用超标量技术;采用3 Epic(显式并行指令计算),将广泛应用于英特尔未来的安腾。超标量技术和流水线技术在现在的计算机中应用广泛,RISC流水线超标量CPU就是两者结合的产物。说CPU一旦使用RISC指令结构就可以一劳永逸,这是完全错误的。因为RISC也需要解决相当多的问题。说CPU一旦使用RISC指令结构就可以一劳永逸,这是完全错误的。因为RISC也需要解决相当多的问题。RISC力求减少程序执行所需的时间,程序执行时间的长短主要取决于三个因素:1,程序I中要执行的指令数;2、周期时间t;3、执行每条指令所需的周期数CPI。两者之间存在乘积关系:程序执行时间=I*T*CPI。为了最小化I、T和CPI,RISC采取了五种措施来解决这个问题:1,采用加载存储结构;2.从指令中选择简单指令和一些使用频率最高的复杂指令;3.采用多级指令流水线结构;4.延迟加载指令和转移指令;5.采用缓存的结构。RISC指令结构将成为未来CPU的重要组成部分。相信看完以上内容,你一定对指令集未来的发展方向有了大致的了解。
8.软件成了“瓶颈”?
在我们的印象中,似乎硬件才是系统瓶颈的罪魁祸首,软件永远成不了瓶颈。那么我们为什么会有这样的想法呢?我觉得主要是受一些评价的影响。应该说,我们不应该怀疑那些评价的准确性和权威性。从QUAKEIII测试中,我们确实可以看到,随着CPU速度的提升,游戏的帧数也有不同程度的增加。从3DMARK 2000中的测试也可以得出同样的结论:随着CPU速度的提高,CPU MARK分数也逐渐增加。以上两个例子反映出CPU是限制系统性能的瓶颈。毕竟无论CPU频率提升多少,其具体性能都是可以通过软件来衡量的。但是,随着CPU的升级,软件很可能取代CPU,成为限制系统性能的瓶颈。如上所述,高级CPU是未来CPU的发展趋势之一。但是现有的软件很难适应世界上位数的提高。我们知道现在使用的WINDOWS NT、WINDOWS 9X、WINDOWS2000家族以及一些网络操作系统都是32位软件。在它们下面运行的游戏、应用程序和编程工具也是32位的。对于软件和CPU来说,数字的一一对应是极其重要的。如果你用64位的CPU运行一个32位的软件,你不会得到一个好的结果。这不是大材小用的问题,而是彻头彻尾的兼容性问题。假设你用相同频率的32位和64位CPU运行32位游戏进行对比测试,你会发现64位CPU的性能在某些方面远远不如32位CPU。造成这种情况的一个重要原因是指令级的不兼容。32位CPU兼容IA-32指令级,64位CPU只兼容64位指令级。虽然这个问题可以从软件和硬件两方面入手,但是难度相当大。相比较而言,从硬件上解决这个问题更容易。从软件入手是相当大的,因为软件升级会改变编程算法和编程方式。而这些绝不是软件专家十天半月就能解决的问题。另一个更严重的问题是,对于目前的软件设计技术来说,CPU的流水线站和流水线数量已经接近极限,仅仅通过增加流水线站和流水线的数量,很难使系统性能有质的飞跃。换句话说,单纯从硬件入手只能是治标不治本!现在AMD的64位CPUK8在指令层面兼容IA-32,这对于32位软件来说无疑是一个福音。但是INTEL的64位CPU拒绝兼容IA-32,这无疑给了那些对INTEL CPU情有独钟的朋友一个打击。总之CPU和软件两者要互相促进,互相磨合才能更好的发展,缺了哪一个都会互相制约。所以,CPU的发展,没有软件的强大支撑是绝对不行的!希望在不久的将来,人们不会因为软件而有了高性能的CPU却没有可用的软件,从而无米可煮!总的来说,CPU的前景还是比较乐观的,现在也不用担心。毕竟距离64位CPU推出还有很长时间!
英特尔推出的P4从一开始就把频率定在了一个高起点上。目前尚不清楚英特尔能否突破工艺限制,推出超过2G的P4。最重要的是,INETL在这个CPU上使用了新的架构和新的SSE2多媒体指令。SSE2在原有SSE的基础上像多重指令,使得指令总数达到144。当然,英特尔也没有忘记RAMBUS。这一次,系统总线速度设置为400 Hz,以便与RANBUS同时使用,提高带宽。毕竟在过去,PIII在RAMBUS面前成了限制系统性能的瓶颈。这次推出P4也是为了给原本不被看好的RAMBUS看看!总之,P4和ATHLON4的推出对广大用户来说是福音,但困扰我们的界面问题是不可避免的。只用适配卡就能适应新CPU的日子一去不复返了!看来,如果你想体验使用新CPU的快速快感,不付点钱是不行的
CPU更新的速度好像和它的运行速度一样快。我觉得用“先闻脚步声,后闻来者”来形容这一切更合适!