指令流水线
此条目需要精通或熟悉电脑科学的编者参与及协助编辑。 (2010年7月31日) |
此条目没有列出任何参考或来源。 (2022年8月2日) |
指令流水线(英语:Instruction pipeline)是为了让电脑和其它数码电子装置能够加速指令的通过速度(单位时间内被执行的指令数量)而设计的技术。
流水线在处理器的内部被组织成层级,各个层级的流水线能半独立地单独运作。每一个层级都被管理并且链接到一条“链”,因而每个层级的输出被送到其它层级直至任务完成。 处理器的这种组织方式能使总体的处理时间显著缩短。
未流水线的架构产生的效率低,因为有些CPU的模块在其他模块执行时是闲置的。流水线虽并不会完全消除CPU的闲置时间,但是能够让这些模块并发运作而大幅提升程序执行的效率。差不多有些类似流水线工厂的概念。
但并不是所有的指令都是独立的。在一条简单的流水线中,完成一个指令可能需要5层。如右图所示,要在最佳性能下运算,当第一个指令被执行时,这个流水线需要运行随后4条独立的指令。可是,如果随后4条指令依赖于第一条指令的输出,流水线控制逻辑器,就必须插入延迟时脉周期到流水线内,直到依赖被满足。而转发技术能显著减少延时。凭借多个层,虽然流水线在理论上能提高性能,优胜于无流水线的内核(假设时脉也因应层的数量按比例增加),但事实上,许多脚本设计中并不会考虑到理想的执行。
简介
流水线是假设程序执行时有一连串的指令要被执行(垂直座标i是指令集,水平座标表时间t)。绝大多数当代的CPU都是利用时脉驱动。
而CPU是由内部的逻辑门与触发器组成。当受到时脉触发时,触发器得到新的数值,并且逻辑门需要一段时间来解析出新的数值,而当受到下一个时脉触发时触发器又得到新的数值,以此类推。而借由逻辑门分散成很多小区块,再让触发器链接这些小区块组,使逻辑门输出正确数值的时间延迟得以减少,这样一来就可以减少指令执行所需要的周期。
举例来说,典型的RISC流水线被分解成五个阶段,每个阶段之间使用触发器链接。
- 读取指令
- 指令解码与读取寄存器
- 执行
- 存储器存取
- 写回寄存器
优缺点
并非在所有情况下流水线技术都起作用。可能有一些缺点。如果一条指令流水线能够在每一个时脉周期接纳一条新的指令,被称为完整流水线(fully pipelined)。因流水线中的指令需要延迟处理而要等待数个时脉周期,被称为非完整流水线。
当一名程序员(或者组合者/编译者)编写组合代码(或者汇编码)时,他们会假定每个指令是循序执行的。而这个假设会使流水线无效。当此现象发生后程序会表现的不正常,而此现象就是危害。不过目前有提供几种技术来解决这些危害像是转发与延迟等。
优点
- 减少了处理器执行指令所需要的时脉周期,在通常情况下增加了指令的输入频率(issue-rate)。
- 一些集成电路(combinational circuits),例如加法器(adders)或者乘法器(multipliers),通过添加更多的环路(circuitry)使其工作得更快。如果以流水线替代,能相对地减少环路。
缺点
- 非流水线的处理器每次(at a time)只执行一个指令。防止分支延时(事实上,每个分支都会产生延时)和串行指令被并行执行产生的问题。设计比较简单和较低生产成本。
- 在执行相同的指令时,非流水线处理器的指令传输延迟时间(The instruction latency)比流水线处理器明显较短。这是因为流水线的处理器必须在数据路径(data path)中添加额外触发器(flip-flops)。
- 非流水线处理器有固定指令位宽(a stable instruction bandwidth)。流水线处理器的性能更难以预测,并且不同的程序之间的变化(vary)可能更大。
示例
一般的流水线
右图是一般有4层流水线的示意图:
- 读取指令(Fetch)
- 指令解码(Decode)
- 执行指令(Execute)
- 写回执行结果(Write-back)
上方的大灰色格是一连串未执行的指令;下方的大灰色格则是已执行完成的指令;中间的大白色格则是流水线。
执行顺序如以下列表所示:
时序 | 执行情况 |
---|---|
0 | 四条指令等待执行 |
1 |
|
2 |
|
3 |
|
4 |
|
5 |
|
6 |
|
7 |
|
8 |
|
9 | 所有指令皆执行完毕 |
汽泡
指令执行中产生一个“打嗝”(hiccup),在流水线中生成一个没有实效的气泡。
如右图,在编号为2的时脉周期中,紫色指令的读取被延迟,并且在编号为3的时脉周期中解码层也产生了一个气泡。所有在紫色指令之后的指令都被延迟执行,而在其之前已经执行了的指令则不受影响。
由于气泡使指令执行延迟了一个时脉周期,完成全部4条指令的执行共需要8个时脉周期。
而气泡处对指令的读取、解码、执行与写回都没有实质影响。这可以使用nop代码来完成。
复杂化
很多处理器的流水线深度到5层、7层、10层,甚至31层(像是Intel Pentium 4 Prescott)。Xelerator X10q甚至有多于1000层的流水线深度[1] (页面存档备份,存于互联网档案馆)。
微架构
(Microarchitecture) |
流水线层数
(Pipeline stages) |
---|---|
Sony Cell | 23 |
IBM PowerPC 7 | 17 |
IBM Xenon | 19 |
AMD Athlon | 10 |
AMD Athlon XP | 11 |
AMD Athlon 64 | 12 |
AMD Phenom | 12 |
AMD Opteron | 15 |
ARM7TDMI (-S) | 3 |
ARM7EJ-S | 5 |
ARM810 | 5 |
ARM9TDMI | 5 |
ARM1020E | 6 |
XScale PXA210/PXA250 | 7 |
ARM1136J (F)-S | 8 |
ARM1156T2 (F)-S | 9 |
ARM Cortex-A5 | 8 |
ARM Cortex-A8 | 13 |
AVR32 AP7 | 7 |
AVR32 UC3 | 3 |
DLX | 5 |
Intel P5(Pentium) | 5 |
Intel P6(Pentium Pro) | 14 |
Intel P6(Pentium III) | 10 |
Intel NetBurst(Willamette) | 20 |
Intel NetBurst(Northwood) | 20 |
Intel NetBurst(Prescott) | 31 |
Intel NetBurst(Cedar Mill) | 31 |
Intel Core | 14 |
Intel Atom | 16 |
LatticeMico32 | 6 |
R4000 | 8 |
StrongARM SA-110 | 5 |
SuperH SH2 | 5 |
SuperH SH2A | 5 |
SuperH SH4 | 5 |
SuperH SH4A | 7 |
UltraSPARC | 9 |
UltraSPARC T1 | 6 |
UltraSPARC T2 | 8 |
WinChip | 4 |
LC2200 32 bit | 5 |
当程序出现分支将不利于过深流水线,整条流水线将会无效化。为了减轻此状况,分支预测就变的重要。如果分支预测错误,也能够借由自行结束预测来避免加速恶化效率。在某些运用上,像是超级计算机运算,为了能够将超长流水线的运算优势凸显出来,会特地将程序写的极少分支化来避免预测失败,而且深度的流水线主要是为了能降低每个时脉执行的指令量而设计。当程序经常出现分支,把分支重新排序(像是将更为需要的指令提早放入流水线中)而将明显的降低损失的速度以避免将分支“冲垮”。像是gcov程序能够使用一种覆盖率检查的技术检查特定分支的执行频率,但是这种检查法经常是优化的最后手段。处理能力高的流水线会因为很多分支的程序而降低效率,这是因为处理器不知道下一个要读取的指令是什么,而需要等待完成分支指令而让流水线清空。处理完分支之后,下一个指令就要经过所有流水线,直到整个指令集的结果出现,而处理器才会再继续执行。而在极端的状况下,流水线处理器的性能理论上可能会与未流水线处理器一致,甚至是每层流水线都在待命状态,而且指令经常在流水线之中跑来跑去时的性能比较差一些。
由于指令流水线,处理器读取机器代码时并不会立即执行。因为如此,在很接近的地方执行更新机器代码的动作就可能无法作用,因为这些机器代码已经进入预读输入队列内。指令缓存又会让此现象更加恶化。不过这只会在能够自我变更的程序出现此现象。
示例
示例一
一个典型的加法指令可能会写成像ADD A, B, C
,而中央处理器(CPU)会将存储器(Memory)内A位置与B位置的数值相加后放到C位置。在流水线处理器内,流水线控制器会将这个指令分拆成一连串微指令:
LOAD R1, A LOAD R2, B ADD R3, R1, R2 STORE R3, C LOAD next instruction
R1, R2和R3是CPU内的寄存器(register是CPU里面能够快速存取的暂存存储器)。主存储器内标注为A位置和B位置之存储单元中的数值被加载(或称复制)到寄存器R1和R2中,然后送到加法器中相加,结果输出到寄存器R3中,R3中的数值再被存储到主存储器内标注为C位置的存储单元。
而且在非流水线的例子,开始驱动加法动作到完成的时间是不变的。
在这个示例中的流水线分为3层:加载,执行,存储。每一步被称为流水线层(或称流水线阶段,pipeline stages)。
在非流水线处理器中,同一时间只允许一个层运作,所以必须等待指令执行完毕才能开始执行下一条指令。在流水线处理器中,所有的层能在同一时间处理不同的指令。当一条指令在执行层,另外一条指令在解码层,第三条指令在读取层。
流水线没有减少执行指令所花费的时间;它增加了在同一时间被处理的指令数量,并且减少了完成指令之间的延迟。随着处理器中流水线层的数量增加,能在同一时间被处理的指令数量也相应增加,也减少了指令等待处理所产生的延迟。现在生产的微处理器至少有2层流水线。[来源请求](Atmel AVR与PIC微控制器都有2层流水线)Intel Pentium 4处理器有20层流水线。
示例二
以下表格具体列出3层流水线理论:
流水线层(Stage) | 说明(Description) |
---|---|
读取(Load) | 从主存储器中读取指令 |
执行(Execute) | 执行指令 |
存储(Store) | 将执行结果存储到主存储器和/或者寄存器 |
以汇编语言表示将会被执行的指令列表:
LOAD A, #40 ;讀取40載入A內 MOVE B, A ;將A內的数据移动到B內 ADD B, #20 ;將B內的數據與20相加 STORE 0x300, B ;將B內的數據儲存到地址為0x300的存儲器單元
代码的执行循序如下:
读取 | 执行 | 存储 |
---|---|---|
LOAD |
从主存储器中读取LOAD指令。
读取 | 执行 | 存储 |
---|---|---|
MOVE | LOAD |
LOAD指令被执行,同时从主存储器中读取MOVE指令。
读取 | 执行 | 存储 |
---|---|---|
ADD | MOVE | LOAD |
LOAD指令在存储层(Store stage),LOAD指令的执行结果#40(the number 40)将被存储到寄存器A。同时,MOVE指令被执行。MOVE指令必须等待LOAD指令执行完毕才能将寄存器A中的内容移动到寄存器B中。
读取 | 执行 | 存储 |
---|---|---|
STORE | ADD | MOVE |
STORE指令被加载,同时MOVE指令执行完毕,并且ADD指令被执行。
注意! 有时候,一个指令会依赖于其他指令的执行结构(例如以上的MOVE指令)。当一个指令因为操作数而需引用一个特定的位置,读取(作为输入)或者写入(作为输入),执行那些指令的循序不同于程序原本的执行循序能导致冒险(hazards)。现时有机种技术用于预防危害,或者绕过(working around)它们。