CL(CAS Latency):为CAS的延迟时间,这是纵向地址脉冲的反应时间,也是在一定频率下衡量支持不同规范的内存的重要标志之一。
主要特点
在实际工作时,无论什么类型的内存,在数据被传输之前,传送方必须花费一定时间去等待传输请求的响应,通俗点说就是传输前传输双方必须要进行必要的通信,而这种就会造成传输的一定延迟时间。CL设置一定程度上反映出了该内存在CPU接到读取内存数据的指令后,到正式开始读取数据所需的等待时间。不难看出同频率的内存,CL设置低的更具有速度优势。
上面只是给大家建立一个基本的CL概念,而实际上
内存延迟的基本因素绝对不止这些。
内存延迟时间有个专门的术语叫“Latency”。要形象的了解延迟,我们不妨把内存当成一个存储着数据的
数组,或者一个EXCEL表格,要确定每个数据的位置,每个数据都是以行和列编排序号来标示,在确定了行、列序号之后该数据就唯一了。内存工作时,在要读取或写入某数据,内存控制芯片会先把数据的列地址传送过去,这个RAS信号(Row Address Strobe,
行地址信号)就被激活,而在转化到行数据前,需要经过几个执行周期,然后接下来CAS信号(Column Address Strobe,列地址信号)被激活。在RAS信号和CAS信号之间的几个执行周期就是RAS-to-
CAS延迟时间。在CAS信号被执行之后同样也需要几个执行周期。此执行周期在使用标准PC133的SDRAM大约是2到3个周期;而DDR RAM则是4到5个周期。在DDR中,真正的CAS延迟时间则是2到2.5个执行周期。RAS-to-CAS的时间则视技术而定,大约是5到7个周期,这也是延迟的基本因素。
CL设置较低的内存具备更高的优势,这可以从总的延迟时间来表现。内存总的延迟时间有一个计算公式,总延迟时间=系统
时钟周期×CL模式数+
存取时间(tAC)。首先来了解一下
存取时间(tAC)的概念,tAC是Access Time from CLK的缩写,是指最大CAS延迟时的最大数输入时钟,是以纳秒为单位的,与内存
时钟周期是完全不同的概念,虽然都是以纳秒为单位。
存取时间(tAC)代表着读取、写入的时间,而
时钟频率则代表内存的速度。
技术范例
举个例子来计算一下总延迟时间,比如一条DDR333内存其
存取时间为6ns,而其内存
时钟周期为6ns(
DDR内存时钟周期=1X2/
内存频率,DDR400内存频率为400,则可计算出其时钟周期为6ns)。我们在
主板的BIOS中将其CL设置为2.5,则总的延迟时间=6ns X2.5+6ns=21ns,而如果CL设置为2,那么总的延迟时间=6ns X2+6ns=18 ns,就减少了3ns的时间。
从总的延迟时间来看,CL值的大小起到了很关键的作用。所以对系统要求高和喜欢
超频的用户通常喜欢购买CL值较低的内存。各
内存颗粒厂商除了从提高内存时钟频率来提高DDR的性能之外,已经考虑通过更进一步的降低
CAS延迟时间来提高内存性能。
不过,并不是说CL值越低性能就越好,因为其它的因素会影响这个数据。例如,新一代处理器的高速缓存较有效率,这表示处理器比较少地直接从内存读取数据。再者,列的数据会比较常被存取,所以RAS-to-CAS的发生几率也大,读取的时间也会增多。最后,有时会发生同时读取大量数据的情形,在这种情形下,相邻的内存数据会一次被读取出来,CAS延迟时间只会发生一次。
选择购买内存时,最好选择同样CL设置的内存,因为不同速度的内存混插在系统内,系统会以较慢的速度来运行,也就是当CL2.5和CL2的内存同时插在
主机内,系统会自动让两条内存都工作在CL2.5状态,造成资源浪费。
查看设置
CL指的是内存的延迟,数字越小越好,延迟有四个部分如4-4-4-12,由于一般前三个数字一样,最后一个数字是前三个的和(一般是这样)所以简写成CL=4
开机后进BIOS(一般默认键是DEL键),选择高级
芯片组设置中的内存设置项,切换到手动状态,就可以对包括CL在内的
内存时序参数作出适当调整,一般DDR266是2.5,DDR333和DDR400是3,DDR二是3.5以上。
相关技术
双通道内存
双通道内存技术其实是一种内存控制和管理技术,它依赖于
芯片组的
内存控制器发生作用,在理论上能够使两条同等规格内存所提供的带宽增长一倍。它并不是什么新技术,早就被应用于服务器和
工作站系统中了,只是为了解决
台式机日益窘迫的
内存带宽瓶颈问题它才走到了台式机主板技术的前台。在几年前,
英特尔公司曾经推出了支持双通道内存传输技术的i820
芯片组,它与
RDRAM内存构成了一对黄金搭档,所发挥出来的卓绝性能使其一时成为市场的最大亮点,但生产成本过高的缺陷却造成了叫好不叫座的情况,最后被市场所淘汰。由于
英特尔已经放弃了对RDRAM的支持,所以主流
芯片组的
双通道内存技术均是指双通道DDR内存技术,主流双通道内存平台英特尔方面是英特尔 865/875系列,而AMD方面则是NVIDIA Nforce2系列。
双通道内存技术是解决CPU
总线带宽与
内存带宽的矛盾的低价、高性能的方案。CPU的FSB(
前端总线频率)越来越高,
英特尔 Pentium 4比AMD Athlon XP对
内存带宽具有高得多的需求。
英特尔 Pentium 4处理器与北桥芯片的数据传输采用QDR(Quad Data Rate,四次数据传输)技术,其FSB是
外频的4倍。
英特尔 Pentium 4的FSB分别是400/533/800MHz,
总线带宽分别是3.2GB/sec,4.2GB/sec和6.4GB/sec,而DDR 266/DDR 333/DDR 400所能提供的
内存带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec。在单通道内存模式下,DDR内存无法提供CPU所需要的数据
带宽从而成为系统的性能瓶颈。而在双通道内存模式下,双通道DDR 266/DDR 333/DDR 400所能提供的
内存带宽分别是4.2GB/sec,5.4GB/sec和6.4GB/sec,在这里可以看到,双通道DDR 400内存刚好可以满足800MHz FSB Pentium 4处理器的带宽需求。而对AMD Athlon XP平台而言,其处理器与北桥芯片的数据传输技术采用DDR(Double Data Rate,双倍数据传输)技术,FSB是
外频的2倍,其对
内存带宽的需求远远低于
英特尔 Pentium 4平台,其FSB分别为266/333/400MHz,总线带宽分别是2.1GB/sec,2.7GB/sec和3.2GB/sec,使用单通道的DDR 266/DDR 333/DDR 400就能满足其带宽需求,所以在AMD K7平台上使用
双通道DDR内存技术,可说是收效不多,性能提高并不如英特尔平台那样明显,对性能影响最明显的还是采用集成显示芯片的
整合型主板。
NVIDIA推出的nForce
芯片组是第一个把
DDR内存接口扩展为128-bit的芯片组,随后
英特尔在它的E7500服务器
主板芯片组上也使用了这种
双通道DDR内存技术,SiS和VIA也纷纷响应,积极研发这项可使DDR
内存带宽成倍增长的技术。但是,由于种种原因,要实现这种双通道DDR(128 bit的并行内存接口)传输对于众多
芯片组厂商来说绝非易事。DDR SDRAM内存和
RDRAM内存完全不同,后者有着高延时的特性并且为串行传输方式,这些特性决定了设计一款支持
双通道RDRAM内存
芯片组的难度和成本都不算太高。但DDR SDRAM内存却有着自身局限性,它本身是低延时特性的,采用的是并行传输模式,还有最重要的一点:当DDR SDRAM
工作频率高于400MHz时,其信号波形往往会出现失真问题,这些都为设计一款支持
双通道DDR内存系统的
芯片组带来不小的难度,芯片组的制造成本也会相应地提高,这些因素都制约着这项内存控制技术的发展。
普通的单通道内存系统具有一个64位的
内存控制器,而
双通道内存系统则有2个64位的内存控制器,在双通道模式下具有128bit的
内存位宽,从而在理论上把
内存带宽提高一倍。虽然双64位内存体系所提供的
带宽等同于一个128位内存体系所提供的带宽,但是二者所达到效果却是不同的。
双通道体系包含了两个独立的、具备互补性的智能
内存控制器,理论上来说,两个内存控制器都能够在彼此间零延迟的情况下同时运作。比如说两个
内存控制器,一个为A、另一个为B。当控制器B准备进行下一次存取内存的时候,控制器A就在读/写主内存,反之亦然。两个
内存控制器的这种互补“天性”可以让等待时间缩减50%。
双通道DDR的两个
内存控制器在功能上是完全一样的,并且两个控制器的时序参数都是可以单独编程设定的。这样的灵活性可以让用户使用二条不同构造、
容量、速度的DIMM内存条,此时
双通道DDR简单地调整到最低的内存标准来实现128bit
带宽,允许不同密度/等待时间特性的DIMM内存条可以可靠地共同运作。
双通道芯片组
英特尔平台方面有英特尔的865P/865G/865GV/865PE/875P以及之后的915/925系列;VIA的PT880,ATI的Radeon 9100 IGP系列,SIS的SIIS 655,SIS 655FX和SIS 655TX;AMD平台方面则有VIA的KT880,NVIDIA的nForce2 Ultra 400,nForce2 IGP,nForce2 SPP及其以后的芯片。