- 1、本文档共109页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
* * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * * 3.9 现代技术在微型计算机中的应用 科学技术的发展对微型计算机的要求是无止境的,一台最完美的8位微处理器因受到它的字长(8位)、地址线的数量(16条)以及某些复杂指令不能一次完成,要编写子程序来实现等局限性,不能满足工业生产和科研工作中的复杂运算。新的16位和32位微处理机要比8位机强得多。 16/32位微型计算机与8位机相比,除明显的处理字长不同外,还有下述优点: (1) 更多的寄存器: 可以减少CPU对存储器访问的次数,提高处理速度。 (2) 增加了存储器寻址范围: 16/32位地址字允许CPU直接对几百万个地址进行寻址。 (3) 更大的指令系统: 包括16位乘法及除法指令,块移动指令等,简化了编程,从而加快了软件的开发。 (4) 更高的速度: 采用了新型的半导体技术,时钟频率可以从过去8MHz提高到33MHz至1GHz,因此加快了微处理器的运算速度。 (5) 新的结构: 微型计算机的内部组织管理采用微程序控制及流水线技术,加快了取指周期和访问存储器操作。在某些情况下运行的速度,达到数量级的增长。 (6) 存储器管理的改进: 在硬件上增添高速缓冲存储器,而在软件上采用虚拟存储技术,使微型计算机中执行最慢的存储器存取速度得到很大的提高;也使微型计算机的主存储器在不扩大容量的情况下达到成倍的增加。 16/32位微处理器是采用超大规模集成电路(VLSI)技术,把更多、更复杂的电路都制作在一个芯片中,成为新一代产品。 在这一节中,将要综述一下这些技术的发展。 3.9.1 流水线技术 以往的计算机都采用冯·诺伊曼(Von·Neumann)结构,通常称为存储程序的运行方式,即程序的指令顺序地储存在存储器中,这些指令被逐条取出并执行。这种串行运行,重复取出和执行顺序指令是以往计算机的主要局限性。根本解决的方法是采用并行操作。 流水线技术是一种同时进行若干操作的并行处理方式。它把取操作和执行操作重叠进行,在执行一条指令的同时,又取另一条或若干条指令。程序中的指令仍是顺序执行,但可以预先取若干指令,并在当前指令尚未执行完时,提前启动另一些操作。 我们用“取/执行”工作中要完成的几个操作为例。在这一个工作周期中要完成以下操作: (1) 取指令: CPU去主存储器寻址,读出指令字并送入指令寄存器。 (2) 指令译码: 翻译过程可以用译码器或微程序控制单元来实现。 (3) 地址生成: 很多指令要访问存储器中的操作数,操作数的地址也许在指令字中,或要经过某些运算。 (4) 取操作数: 当运算指令要求操作数时,就需再访问存储器,对操作数进行寻址并读出。 (5) 执行指令: 最后指令由ALU执行。 这种串行运行的顺序如图3.12(a)所示。而流水线操作就有可能使某些操作重叠。如在上一条指令在执行时就顺序从存储器中取下一条指令,如图3.12(b)所示。并行操作就可加快一段程序的运算过程。 图3.12 流水线技术是要增加计算机的硬件,例如上述中,要采用预取指令操作就需要增加硬件来取指令,并把它存放到寄存器队列中,使微处理器能同时进行取指令和执行微指令重叠进行。因此,在16/32位微处理机中含有两个运算/逻辑单元,一个主ALU仅用于取指令,另一个ALU专用于地址生成,这样就可使地址计算与其他操作同时进行。 虽然流水线技术已广泛地应用于16/32位微处理机,但由于不同的指令运行时间不一样长,流水线技术受到最长步骤所需时间的限制。 3.9.2 高速缓冲存储器 在微型计算机中,虽然CPU的处理速度大大地提高,但主存储器的存/取时间却要比CPU慢一个数量级,这一现象严重地影响微型机的运算速度。 在半导体RAM中,只有价格极为昂贵的双极型RAM线路的读写时间可与CPU的处理速度处于同一个数量级。因此就产生一种分级处理的方法,在主存储器和CPU之间加一个容量相对较小的高速缓冲存储器(cache,简称高速缓存器),如图3.13所示。有了高速缓存器以后,不论指令或数据要从主存储器中存入或取出时,都先把它及后面连续的一组传递到高速缓存器中,CPU在取下一条指令或向操作数发出一个地址时,它首先看看所需的数据是否就在高速缓存器里,如果在高速缓存器内,就立即传送给CPU;如果不在缓存器中,就要做一次常规的存储器访问。 图3.13 由于程序中相关的数据块一般都顺序存放,并且大都存在相邻的存储单元内,因此CPU对存储器的存取也大都是在相邻的单元中进行。一般情况,CPU在高速缓存器中存取的命中率可以高达90%以上。 高速缓
文档评论(0)