计算机系统结构:
第一章 丁俊晖打过几次147基本概念
填空题、选择题复习:
1、 从使用语言角度,系统按功能划分层次结构由低到高分别为:微程序机器M0、传统机器M1、操作系统机器M2、汇编语言机器M3、高级语言机器M4、应用语言机器M5.
2、 计算机系统的设计思路:“从中间开始”设计的“中间”是指层次结构中的软硬件交界面,目前多数在传统机器语言机器级与操作系统机器级之间。
3、 翻译与解释的区别与联系:区别:翻译是整个程序转换,解释是低级机器的一串语句仿真高级机器的一条语句;联系:都是高级机器程序在低级机器上执行的必须步骤。
4、 刘芷微模拟与仿真的区别:模拟:用机器语言解释实现软件移植的方法,解释的语言存在主存中;仿真用微程序解释,存储在控制存储器中。
5、 解决好软件的可移植性方法有统一高级语言、采用系列机、模拟与仿真。
6、 系列机必须保证向后兼容,力争向上兼容。
7、 非用户片也称通用片,其功能是由器件厂生产时定死的,器件的用户只能用,不能改;现场片,用户根据需要改变器件内部功能;用户片是专门按用户的要求生产高集成度VLSI器件,完全按用户的要求设计的用户片称为全用户片。一般同一系列内各档机器可分别用通用片、现场片酸甜猪脚的做法或用户片实现。
8、 计算机应用可归纳为向上升级的4类:数据处理、信息处理、知识处理、智能处理。
9、 并行性开发的途径有:时间重叠、资源重复和资源共享。
10、并行性是指:同一时刻或同一时间间隔内完成两种或两种以上性质相同或不同的工作,并行性包含同时性和并发性二重含义。
11、科学计算中的重大挑战性课题往往要求计算机系统能有1TFLOPS的计算能力、1TBYTE的主存容量、1TBYTE/S的I/O带宽。
12、并行处理计算机的结构:流水线计算机——时间重叠,阵列处理机——资源重复,多处理机——资源共享。
13、多机系统分多处理机系统和多计算机系统,多处理机系统:多台处理机组成的单一系统,多计算机系统:多台独立的计算机组成的系统。
14、多机系统的耦合度可以分为最低耦合、松散耦合和 紧密耦合。
15、计算机系统的分类:1966年,弗林提出按指令流和数据流的多倍性分类,指令流是指机器执行的指令序列,数据流是指由指令流调用的数据序列,多倍性是指系统性能瓶颈部件上处于同一执行阶段的指令或数据的最大可能个数。计算机分为单指令流单数据流(SISD)、单指令流多数据流(SIMD)、多指令流单数据流(MISD)、多指令流多数据流(MIMD)。
16、SIMD具有代表性例子的是阵列处理机和相连处理机,流水线处理机。MISD具有代表性例子的是宏流水及脉动阵列流水机。
第二章 数据表示与指令系统(实质是软、硬件的取舍)
1、数据表示指的是:能由机器硬件直接识别和引用的数据类型。
2、高级数据表示方法有三种:自定义数据表示、向量数组数据表示、堆栈数据表示。
3、自定义数据表示包括标志符数据表示和数据描述符两类。
4、引入数据表示的原则:一是看系统效率是否提高,二是看通用性和利用率是否高。看系统的效率是否提高,即是否减少了实现时间和存储空间,实现时间是否减少主要看主存和处理机之间传送的信息量是否减少,传的信息量越少,实现时间就越少。
5、可表示最小尾数值1x rm-1,可表示最大尾数值1-rm-m’
最大阶值:2p-1 ,可表示最小值rm-1,可表示最大值rm(2p-1)(1-rm-m’)
可表示的尾数个数rmm’( rm-1)/rm,可表示阶的个数2p,可表示数的个数2prmm’(rm-1)/ rm
6、浮点数尾数的下溢处理方法:(1)截断法:好处是实现最简单,不增加硬件,不需要处理时间,但由于最大误差较大平均误差大且无法调节,已很少使用。(2)舍入法:好处是实现最简单,增加硬件很少,最大误差小,平均误差接近于0,缺点是处理速度慢,需要花费在数的附加位加1以及因此产生进位的时间。(3)恒置“1“法:好处是实现最简单,
不需要增加硬件和处理时间,平均误差趋于0,只要缺点是误差最大,比截断法还大,多用于中高速机器。(4)查表舍入法:ROM法速度较快、平均误差可调节到0,是较好的方法。缺点是硬件量大。不过随着器件价格的下降和集成度的改进,使用将会增多。
7、寻址方式:面向主存、寄存器和堆栈寻址方式。面向主存的寻址操作数主要访问主存,少量访问寄存器,面向寄存器的寻址操作数主要访问寄存器,少量访问主存,面向堆栈的寻址主要访问堆栈,少量访问主存或寄存器。
8、逻辑地址是程序员编程用的地址,主存物理地址是程序在主存中的实际地址汽车爆胎。
9、指令是由操作码和地址码两部分组成,操作码的优化有哈夫曼编码和扩展操作码编码,指令格式的优化要维持指令字按整数边界存储,缩短指令字中的地址码位数。
10、动车与高铁在IBM370系统中,支持操作系统实现多进程共用公用区管理最有效的指令是“比较与交换“,IBM360系统中采用“测试与置定”指令,一个进程要想进行下去,必须同时占有标志位和CPU两个资源,如果一个进程只占有标志位并未占有CPU,而另一个进程只占有CPU并未占有标志位,就会出现僵持状态,使机器进入死锁。
11、设计RISC的原则:1、确定指令系统时,只选择使用频度很高的那些指令,再增加少量能有效支持操作系统、高级语言实现及其它功能的指令,大大减少指令条数,使之一般不超过100条。2、减少指令系统所用寻址方式种类,一般不超过两种,并让全部指令都是相同长度。3.、让所有指令都在一个机器周期内完成。4、扩大通用寄存器数,一般不少于32个,尽量减少访存,所有指令只有存、取指令访存,其它指令只对寄存器操作5、为提高指令执行速度,大多数指令都用硬联控制器实现,少数指令才用微程序实现。6、通过精简指令和优化设计编译程序,简单有效地支持高级语言的实现。
12、设计RISC结构用的基本技术:1、按RISC一般原则设计2、逻辑实现用硬联和微程序结合3、用重叠寄存器窗口4、指令用流水和延迟转移5、优化设计编译系统。
13、RISC技术的发展带来好处:1、简化指令系统设计,适合VLSI实现2、提高机器的执行速度和效率3、降低设计成本,提高了系统的可靠性4、可直接支持高级语言的实现,简化编译程序的设计。
14、RISC的问题和不足:1、由于指令少,使原在CISC芋圆的做法上由单一指令完成的某些复杂功能现在要用多条RISC指令才能完成,加重了汇编语言程序设计的负担,增加了机器语言程序
的长度,占用存储空间多,加大了指令的信息流量。2、对浮点运算执行和虚拟存储器的支持虽有很大加强,但仁显得不足。3、RISC机器的编写程序比CISC的难写。
第三章 总线、中断与输入输出系统
1、输入输出系统的发展经历了3个阶段,相应对应于3种方式,即程序控制I/O、直接存储器访问DMA及I/O处理机方式。
2、通道通过执行通道程序来控制输入输出,它与CPU可以并行工作。
3、总线的控制方式有串行链接、定时查询和独立请求3种不同方式。
4、中断的分类:机器校验中断(设备故障)、访管中断(管理程序调用)、程序性中断、外部中断、I/O中断(输入输出中断)、重新启动
5、中断响应的次序是由硬件决定的。
6、中断的级别:机器校验中断>程序性中断和管理程序>外部中断>输入输出>重新启动。
7、尽管中断响应次序由硬件排队器固定好,但中断实际处理完的次序是可以通过_中断级屏蔽位寄存器_修改各中断级处理程序的_中断屏蔽_位,而动态改变。
8、中断响应次序:靠硬件排位器自身决定的。不等于中断处理完程序次序,中断级屏蔽位寄存器
第四章 存储体系
1、主存容量满足不了要求而引出虚拟存储器,主存速度满足不了引出告诉缓冲存储器Cache
主存与CPU的速度差为1个数量级,为了解决这个速度差对机器性能的影响,提出了多种解决办法。
一种是在CPU中设置通用寄存器,让运算直接在CPU的通用寄存器中进行,减少与主存的交往,二种是采用存储器的多体交叉并行存取来提高主存的等效速度,三种是采用Cache存储器,在CPU和主存之间增加速度高。
2、Cache存储器不但对应用程序员透明,对系统程序员也透明。
3、虚拟存储器的存储管理方式有段式、页式和段页式3种。
4、段式管理:主存按段分配的存储管理方式,每道程序在系统中都有一个段(映像)表来存放该道程序各段装入主存的状况信息,各段的长度完全取决于段自身。各段装入主存的起点是随意的,段长字段也很长,这既增加辅助硬件开销,降低查表速度,也使主存管理麻烦,带来段间零头浪费。
5、页式管理:页式存储是把主存空间和程序空间都机械等分成固定大小的页,页式存储中程序的起点必处于一个页面的起点。页式对应用程序员完全透明。页式不能完全消除主存可用区的零头浪费。
6、段页式管理:段页式存储是把实存机械等分成固定大小的页,程序按模块分段,每个段又分成与主存页面大小相同的页。段页式与纯段式的主要差别是段的起点不再是任意的,必须是位于主存中页面的起点。
7、页式虚拟存储器的替换算法有:随即算法、先进先出FIFO、近期最少使用(近期最久未使用)算法LRU等。
8、高速缓冲(Cache)存储器:是为弥补主存速度的不足,在处理机与主存之间设置一个高速、小容量的Cache.构成Cache—主存存储层次。使之从CPU来看,速度接近于Cache,r容量却是主存的。
9、Cache存储器的基本结构是主存和Cache, Cache存储器不仅对应用程序员是透明的,对系统程序员也式透明的。
10、Cache存储器地址映象与变换:全相联映象和变换、直接映象及其变换、组相联映象及变换。
全相联映象法的优点是块冲突概率最低,只有当Cache全部装满才可能出现块冲突,所以Cache空间利用率最高。
直接映象法的优点是所需硬件省,缺点是块冲突概率很高,只要有两个或两个以上经常使用的块恰好被映象到Cache同一块位置时,就会使Cache命中率急剧下降,所以Cache的空间利用率很低,目前已很少使用直接映象规则了。
组相联映象指的是各组之间是直接映象,而组内各块之间是全相联映象,组相联映象比全
相联映象在成本上要低得多,而性能上仍可接近于全相联映象,所以获得了广泛使用。
11、Cache替换算法的实现:当Cache块失效将主存块装入Cache块冲突时,就必须按某种替换策略选择Cache中一块替换出去,Cache存储器的替换算法与虚拟存储器也一样用FIFO算法或LRU,其中LRU最为常用.。
12、LRU算法的两种全硬实现方法:堆栈法、比较对法。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论