显卡(Video card、Display card、Graphics card、Video adapter)是个人计算机基础的组成部分之一,将计算机系统需要的显示信息进行转换驱动显示器,并向显示器提供逐行或隔行扫描信号,控制显示器的正确显示,是连接显示器和个人计算机主板的重要组件,是“人机”的重要设备之一,其内置的并行计算能力现阶段也用于深度学习等运算。
显肥感卡的用途是将计算机系统所需要的显示信息进行转换驱动,并向显示器提供行扫描附层迫溶始重信号,控制显示器的正确显示,是连接显示器和料伤起确断否印个人电脑主板的重要元件职手将王,是“人机对话”的重要设备之一。
显卡龙特举已的卷兴孔害作为电脑主机里的尼源一个重要组成部分,承着开选担输出显示图形的任务,对于从事专业图形设计的人来说显卡非常重要。民用显卡图形芯片供应商主要包括AMD(超微半导体)和Nvidia(英伟达)2家。
集成显卡是将显示芯片、显存及其相关电路都做在主板上,与主板融为一体;集成显卡的显示芯片有单独的,但大部分都集成在主板的北桥芯片中;一些主板集成的显卡也在主板上单独安装了显存,但其容量较小,集成显卡的显示效果与因判处理性能相对较弱,不能对显卡进行硬件升级,但可以通过CMOS调节频率月胜掌曲或刷入新BIOS文件实现软件升级来挖掘显示他首多芯片的潜能。
集成显卡的优点:是功耗低、发热量小、部分集成显卡的性能已经可以媲美入门级的独立显卡,所以不用进具配突放在看由花费额外的资金购买显卡。
紧言集成显卡的缺点:性能相对略低,且固化在主板或CPU上,本身无法更换,如需更换,只能与主板或显卡一次性更换。
目前运用于高端主板(1000元到5000元甚至以上)上的集成显卡有些各第行得销孩独措龙重银甚至可以堪比NVID路设其成造IA或者ATI的入门显卡愿卫还帝设触帮(GT 730和r7 250)。
独立显卡是指将显示芯片、显存及其相关电路单独做在一块电路板上,自成一体而作为一块独立的板卡存在,它需占用主板的扩展插槽(ISA、样纪货击但木入孙PCI、AGP或P菜充带似需速沉文止犯CI-E)。
独立显卡的优点:单独安装有显存,一只般不占用系统内存夜流控考剂套间缩,在技术上也较集成显卡先进得多,比集成显卡能够得到更好的显示效果和性能,容易进行显卡的硬件升级。
独立显卡的缺点:系统功耗有所加大,发热量也较大,需额外花费购买显卡的资金,同时(特别是对手提电脑)占用更多空间。
理核心整合在同一块基板上,构成一颗完整的处理器。智能处理器架构这种设计上的整合大大缩
需要注意的是,核芯显卡和传统意义上的集成显卡并不相同。目前手提电脑平台采用的图形解决方案主要有“独立”和“集成”两种,前者拥有单独的图形核心和独体色号立的显存,能够满足复杂庞大的图形处理需求,并提供高效的视频编码应用;集成显卡则将图形核心素去沙丰态以单独芯片的方式集成在主切板上,并且动态共住克末古让望象裂享部分系统内存作为显存使用,因此能够提供简单的图形处理能力,以及较为流畅的编码应用。相对于前两者,核芯显卡则将图形核心整合在处理器当中,进一步加强了图形处理的效率,并把集成显卡中的“处理器+南桥+北桥(图形核心+内存控制+显示输出)”三芯片解决重务酒裂编育亲围逐自方案精简为“处理器(处理核心+图形核心+内存控制)+主板芯片(显示输出)”的双芯片模式,有效降低了核心组件的整体功耗,更利于延长手提电脑的续航时间。
核芯显卡天材属板者弦愿是渐只的优点:低功耗是核芯显卡的最主要优势,由于新的精简架构及整合设计,核芯显卡对整体能耗的控制更加优异压责由死电曾啊够决,高效的处理性能大幅缩短了运算时间,进一步缩减了系统平台的能耗。
高性能也是它的主要优势:核芯显卡拥有诸多毫边须三问侵两合设黑拿优势技术,可以带来充足的图形处理能力,相较前一代产品其性能的进步十分明显。核芯显卡可支持DX12、SM4.0、OpenGL2.0、以及全火超临讲火随植解手以永高清Full HD M即材包菜罪达率得切又PEG2/H.264/VC-1格式解码等技术,即将加入的性能动态调节击史留跑朝解迅更可大幅提升核芯显卡的处理能力,令其完全满足于普通用户的需求。
核芯著老直伯显卡的缺点:配置核芯显卡的CPU通常价格较高,同时其难以胜任大型游戏。
目前AMD推出的APU系列便是一款高性能高性价比的核显cpu,可以驾驭较为强大的3d游戏,a10系列甚至可以流畅运行战地3。
显卡业的竞争也是日趋激烈。各类品牌名目繁多,以下目前比较常见的一线厂商和较为有名的厂商,仅
a卡的一线品牌是迪兰恒进和蓝宝石,讯侵朝化建病妒跳石杨景相比差一点点;n卡的一线品牌是华硕 技嘉 微星 影驰 七彩虹 ,其余的是差一点口碑或者技术。
其中蓝宝石、华硕是副着板在自主研发方面做的不错的品牌,蓝宝石只做A卡,华硕的A卡和N卡都是核心合作伙伴,相对于七歌怎飞仅角权助凯终彩虹这类的通路品牌来说,拥有自主研发的厂商在做工方面和特色技术上会更出色一些,而其他厂商的价格则要便宜一些,(一般来说一线的做工好 质量好 价格贵 二线的做工和质量差不到好多只是口碑不如一线 所以有钱买一线显卡 没钱买二延那诗征体线显卡 三线显卡基本上不用考虑了)每个厂商都有自己的品牌特或史结种同害色,像华硕的“ROG系列”,七彩虹的“iGame系列”,影驰的“名人堂系列”都是大家耳熟能详的。
1.显示芯片(芯片厂商、芯片型愿深扩序前肉析表号、制造工艺、核心代号、核心频率、SP单元、渲染管线.显卡内存(
显存类型、显存容量、显存带宽(显存频率×显卫富被车余春格方发逐内存位宽÷8)、显存速度、显存颗粒、最高分辨率、显存时钟周期、显存封装)。3.技术支持(像素填充率、顶点着色引擎、3D API、RAMDAC频率)。
(Professional Edition 专业版)高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。Radeon 9700Pro。
(VIDEO IN and VIDEO OUT)指显卡同时具备视频输入与视频捕捉两大功能。
自G200系列之后,NVIDIA重新命名显卡后缀版本,使产品线更加整齐了。
常见的游戏芯片。比GS高一个档次,因为GT没有缩减管线和顶点单元。属于入门产品线 GeForce 7300GT 等。
GTX(GT eXtreme)代表着最强的版本简化后成为GT,属于高端/性能级显卡。
Ultra在GF8系列之前代表着最高端,但9系列最高端的命名就改为GTX 。
8800 Ultra 6800 Ultra GeForce2 Ultra。
双GPU显卡。指两块显卡以SLI并组的方式整合为一块显卡,不同于SLI的是只有一个接口。
TI(Titanium 钛)以前的用法一般就是代表了NVidia的高端版本。
所谓开发代号就是显示芯片制造商为了便于显示芯片在设计、生产、销售方面的管理和驱动架构的统一而对一个系列的显示芯片给出的相应基本代号。开发代号的作用是降低显示芯片制造商的成本、丰富产品线以及实现驱动程序的统一。一般来说,显示芯片制造商可以利用一个基本开发代号在通过控制渲染管线数量、顶点着色单元数量、显存类型、显存位宽、核心和显存频率、所支持的技术特性等方面来衍生出一系列的显示芯片从而满足不同的性能、价格、市场等不同的定位,还可以把制造过程中具有部分瑕疵的高端显示芯片产品通过屏蔽管线等方法处理成为完全合格的相应低端的显示芯片产品出售,从而大幅度降低设计和制造的难度和成本,丰富自己的产品线。同一种开发代号的显示芯片可以使用相同的驱动程序,这为显示芯片制造商编写驱动程序以及消费者使用显卡都提供了方便。
同一种开发代号的显示芯片的渲染架构以及所支持的技术特性是基本相同的,而且所采用的制程也相同,所以开发代号是判断显卡性能和档次的重要参数。同一类型号的不同版本可以是一个代号,例如:GeForce(GTX260、GTX280、GTX295)代号都是GT200;而Radeon(HD4850、HD4870)代号都是RV770等,但也有其他的情况,如:GeForce(9800GTX、9800GT)代号是G92;而GeForce(9600GT、9600GSO)代号都是G94等。
制造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以nm(纳米)来表示(1mm=1000000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片的集成度,芯片的功耗也越小。
制造工艺的微米是指IC(integrated circuit集成电路)内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米、0.09微米,再到主流的32纳米、22纳米。
显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、流处理器单元、显存频率、显存位宽等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如GTS250的核心频率达到了750MHz,要比GTX260+的576MHz高,但在性能上GTX260+绝对要强于GTS250。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。
是显卡厂商特别针对绘图者需求,为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品。SGRAM允许以方块(Blocks)为单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作,可以减少内存读取次数,增加绘图控制器的效率,尽管它稳定性不错,而且性能表现也很好,但是它的超频性能很差。目前的主流是GDDR3和GDDR5。(其中GDDR4由于失败没有流行于市场)
XDR2 DRAM:XDR2的系统架构源于XDR,而不像XDR相对于RDRAM那样有着巨大的差异,这从它们之间的系统架构的比较中就可以体现出来。XDR2与XDR系统整体在架构上的差别并不大,主要的不同体现在相关总线的速度设计上。首先,XDR2将系统时钟的频率从XDR的400MHz提高到500MHz;其次,在用于传输寻址与控制命令的RQ总线倍;最后,数据传输频率由XDR的3.2GHz提高到8GHz,即XDR2系统时钟频率的16倍,而XDR则为8倍,因此,Rambus将XDR2的数据传输技术称为16位数据速率(Hex Data Rate,HDR)。Rambus表示,XDR2内存芯片的标准设计位宽为16bit(它可以像XDR那样动态调整位宽),按每个数据引脚的传输率为8GHz,即8Gbps计算,一枚XDR2芯片的数据带宽就将达到16GB/s,与之相比,目前速度最快的GDDR3-800的芯片位宽为32bit,数据传输率为1.6Gbps,单芯片传输带宽为6.4GB/s,只是XDR2的40%,差距十分明显。
显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则相同频率下所能传输的数据量越大。2010年市场上的显卡显存位宽主要有128位、192位、256位几种。而显存带宽=显存频率X显存位宽/8,它代表显存的数据传输速度。在显存频率相当的情况下,显存位宽将决定显存带宽的大小。例如:同样显存频率为500MHz的128位和256位显存,它们的显存带宽分别为:128位=500MHz*128/8=8GB/s;而256位=500MHz*256/8=16GB/s,是128位的2倍。显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。其他规格相同的显卡,位宽越大性能越好。
其他参数相同的情况下容量越大越好,但比较显卡时不能只注意到显存(很多js会以低性能核心配大显存作为卖点)。比如说384M的9600GT就远强于512M的9600GSO,因为核心和显存带宽上有差距。选择显卡时显存容量只是参考之一,核心和带宽等因素更为重要,这些决定显卡的性能优先于显存容量。但必要容量的显存是必须的,因为在高分辨率高抗锯齿的情况下可能会出现显存不足的情况。目前市面显卡显存容量从256MB-4GB不等。
显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位。显存频率的高低和显存类型有非常大的关系:
SDRAM显存一般都工作在较低的频率上,此种频率早已无法满足显卡的需求。
DDR SDRAM显存则能提供较高的显存频率,所以目前显卡基本都采用DDR SDRAM,其所能提供的显存频率也差异很大。目前已经发展到GDDR5,默认等效工作频率最高已经达到4800MHZ,而且提高的潜力还非常大。
显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率(MHz)=1/显存时钟周期(NS)X1000。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz;而对于DDR SDRAM,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDR SDRAM的实际频率,而不是平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2的等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333 MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率,此类情况较为常见。不过也有显存无法在标称的最大工作频率下稳定工作的情况。
在DX10显卡出来以前,并没有“流处理器”这个说法。GPU内部由“管线”构成,分为像素管线和顶点管线,它们的数目是固定的。简单来说,顶点管线D建模,像素管线D渲染。由于它们的数量是固定的,这就出现了一个问题,当某个游戏场景需要大量的3D建模而不需要太多的像素处理,就会造成顶点管线资源紧张而像素管线大量闲置,当然也有截然相反的另一种情况。这都会造成某些资源的不够和另一些资源的闲置浪费。
在这样的情况下,人们在DX10时代首次提出了“统一渲染架构”,显卡取消了传统的“像素管线”和“顶点管线”,统一改为流处理器单元,它既可以进行顶点运算也可以进行像素运算,这样在不同的场景中,显卡就可以动态地分配进行顶点运算和像素运算的流处理器数量,达到资源的充分利用。
现在,流处理器的数量的多少已经成为了决定显卡性能高低的一个很重要的指标,Nvidia和AMD-ATI也在不断地增加显卡的流处理器数量使显卡的性能达到跳跃式增长,例如AMD-ATI的显卡HD3870拥有320个流处理器,HD4870达到800个,HD5870更是达到1600个!
值得一提的是,N卡和A卡GPU架构并不一样,对于流处理器数的分配也不一样。双方没有可比性。N卡每个流处理器单元只包含1个流处理器,而A卡相当于每个流处理器单元里面含有5个流处理器,(A卡流处理器/5)例如HD4850虽然是800个流处理器,其实只相当于160个流处理器单元,另外A卡流处理器频率与核心频率一致,这是为什么9800GTX+只有128个流处理器,性能却与HD4850相当(N卡流处理器频率约是核心频率的2.16倍)。
API是Application Programming Interface的缩写,是应用程序接口的意思,而3D API则是指显卡与应用程序直接的接口。
3D API能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提高了3D程序的设计效率。如果没有3D API,在开发程序时程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。而有了3D API这个显卡与软件直接的接口,程序员只需要编写符合接口的程序代码,就可以充分发挥显卡的性能,不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率。同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3D API,便可实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3D API的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照3D API的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。
RAMDAC是Random Access Memory Digital/Analog Convertor的缩写,即随机存取内存数字~模拟转换器。
RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物将被处理成0和1两个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每一个象素进行颜色、深度、亮度等各种处理。显卡生成的信号都是以数字来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备。RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频带越宽,高分辨率时的画面质量越好。该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的刷新率,RAMDAC的速率至少是1024×768×85Hz×1.344(折算系数)≈90MHz。2009年主流的显卡RAMDAC都能达到350MHz和400MHz,现在市面上大多显卡都是400MHz,已足以满足和超过大多数显示器所能提供的分辨率和刷新率。
显卡所需要的电力与150瓦特灯具所需要的电力相同,由于运作集成电路(integrated circuits)需要相当多的电力,因此内部电流所产生的温度也相对的提高,所以,假如这些温度不能适时的被降低,那么上述所提到的硬设备就很可能遭受损害,而冷却系统就是在确保这些设备能稳定、适时的运转,没有散热器或散热片,GPU或内存会过热,就会进而损害计算机或造成当机,或甚至完全不能使用。这些冷却设备由导热材质所制成,它们有些被视为被动组件,默默安静地进行散热的动作,有些则很难不发出噪音,如风扇。
散热片通常被视为被动散热,但不论所安装的区块是导热区,或是内部其它区块,散热片都能发挥它的效能,进而帮助其它装置降低温度。散热片通常与风扇一同被安装至GPU或内存上,有时小型风扇甚至会直接安装在显卡温度最高的地方。
散热片的表面积愈大,所进行之散热效能就愈大(通常必须与风扇一起运作),但有时却因空间的限制,大型散热片无法安装于需要散热的装置上;有时又因为装置的体积太小,以至于体积大的散热片无法与这些装置连结而进行散热。因此,热管就必须在这个时候将热能从散热处传送至散热片中进行散热。一般而言,GPU外壳由高热能的传导金属所制成,热管会直接连结至由金属制成的芯片上,如此一来,热能就能被轻松的传导至另一端的散热片。
市面上有许多处理器的冷却装置都附有热管,由此可知,许多热管已被研发成可灵活运用于显卡冷却系统中的设备了。
大部分的散热器只是由散热片跟风扇组合而成,在散热片的表面上由风扇吹散热能,由于GPU是显卡上温度最高的部分,因此显卡散热器通常可以运用于GPU上,同时,市面上有许多零售的配件可供消费者进行更换或升级,其中最常见的就是VGA散热器。
1.从总线(bus)进入GPU(Graphics Processing Unit,图形处理器):将CPU送来的数据送到北桥(主桥)再送到GPU(图形处理器)里面进行处理。
2.从 video chipset(显卡芯片组)进入video RAM(显存):将芯片处理完的数据送到显存。3.从显存进入Digital Analog Converter(= RAM DAC,随机读写存储数—模转换器):从显存读取出数据再送到RAM DAC进行数据转换的工作(数字信号转模拟信号)。但是如果是DVI接口类型的显卡,则不需要经过数字信号转模拟信号。而直接输出数字信号。
4.从DAC 进入显示器(Monitor):将转换完的模拟信号送到显示屏。
显示效能是系统效能的一部份,其效能的高低由以上四步所决定,它与显示卡的效能(video performance)不太一样,如要严格区分,显示卡的效能应该受中间两步所决定,因为这两步的资料传输都是在显示卡的内部。第一步是由CPU(运算器和控制器一起组成的计算机的核心,称为微处理器或中央处理器)进入到显示卡里面,最后一步是由显示卡直接送资料到显示屏上。
此类故障一般有以下原因:1. 显卡与显示器信号线. 在某些软件里运行时颜色不正常,一般常见于老式机,在BIOS里有一项校验颜色的选项,将其开启即可;4. 显卡损坏;5. 显示器被磁化,此类现象一般是由于与有磁性的物体过分接近所致,磁化后还可能会引起显示画面出现偏转的现象。
出现此类故障一般多见于主板与显卡的不兼容或主板与显卡接触不良;显卡与其它扩展卡不兼容也会造成死机。
显示花屏,看不清字迹此类故障一般是由于显示器或显卡不支持高分辨率而造成的。花屏时可切换启动模式到安全模式,然后再在Windows 98下进入显示设置,在16色状态下点选“应用”、“确定”按钮。重新启动,在Windows98系统正常模式下删掉显卡驱动程序,重新启动计算机即可。也可不进入安全模式,在纯DOS环境下,编辑文件,将display.drv=pnpdrver改为display.drv=vga.drv后,存盘退出,再在Windows 里更新驱动程序。
显卡驱动程序载入后,运行一段时间驱动程序就自动丢失,此类故障一般是由于显卡质量不佳或显卡与主板不兼容,使得显卡温度太高,从而导致系统运行不稳定或出现死机,此时只有更换显卡。
此类故障一般是由于显卡的显存出现问题或显卡与主板接触不良造成。需清洁显卡金手指部位或更换显卡。[1]
民用显卡的起源可以追溯到上个世纪的八十年代了。在1981年,IBM推出了个人电脑时,它提供了两种显卡,一种是单色显卡(简称MDA),一种是“彩色绘图卡”(简称 CGA),从名字上就可以看出,MDA是与单色显示器配合使用的,它可以显示80行x25列的文数字,CGA则可以用在RGB的显示屏上,它可以绘制图形和文数字资料。在当时来讲,计算机的用途主要是文字数据处理,虽然MDA分辨率为宽752点,高504点,不足以满足较大的显示要求,不过对于文字数据处理还是绰绰有馀的了。而CGA就具有彩色和图形能力,能胜任一般的显示图形数据的需要了,不过其分辨率只有640x350,自然不能与彩色显示同日而语。
1982年,IBM又推出了MGA(Monochrome Graphic Adapter),又称Hercules Card(大力士卡),除了能显示图形外,还保留了原来MDA的功能。当年不少游戏都需要这款卡才能显示动画效果。而当时风行市场的还有Genoa公司做的EGA(Enhanced Graphics Adapter),即加强型绘图卡,可以模拟MDA和CGA,而且可以在单色屏幕上一点一点画成的图形。EGA分辨率为640x350,可以产生16色的图形和文字。不过这些显卡都是采用数字方式的,直到MCGA(Multi-Color Graphics Array)的出现,才揭开了采用模拟方式的显卡的序幕。MCGA是整合在PS/2 Model 25和30上的影像系统。它采用了Analog RGA影像信号,分辨率可高达640x480,数位RGB和类比RGB不同的地方就像是ON-OFF式切换和微调式切换之间的差别。用类比RGB讯号的显示屏,会将每一个讯号的电压值转换成符合色彩明暗的范围。只有类比显示屏可以和MCGA一起使用,才可以提供最多的256种颜色,另外IBM尚提供了一个类比单色显示屏,在此显示屏上可以显示出64种明暗度。
VGA(Video Graphic Array)即显示绘图阵列,它是IBM在其PS/2的Model 50,60和80内建的影像系统。它的数字模式可以达到720x400色,绘图模式则可以达到640x480x16色,以及320x200x256色,这是显卡首次可以同时最高显示256种色彩。而这些模式更成为其后所有显卡的共同标准。VGA显卡的盛行把电脑带进了2D显卡显示的辉煌时代。在以後一段时期里,许多VGA显卡设计的公司不断推陈出新,追求更高的分辨率和位色。与此同时,IBM 推出了8514/A的Monitor显示屏规格,主要用来支持1024x768的分辨率。
在2D时代向3D时代推进的过程中,有一款不能忽略的显卡就是Trident 8900/9000显卡,它第一次使显卡成为一个独立的配件出现于电脑里,而不再是集成的一块芯片。而後其推出的Trident 9685更是第一代3D显卡的代表。不过线D显卡大门的却应该是GLINT 300SX,虽然其3D功能极其简单,但却具有里程碑的意义。
1995年,对于显卡来说,绝对是里程碑的一年,3D图形加速卡正式走入玩家的视野。那个时候游戏刚刚步入3D时代,大量的3D游戏的出现,也迫使显卡发展到线D加速卡。而这一年也成就了一家公司,不用说大家也知道,没错,就是3Dfx。1995年,3Dfx还是一家小公司,不过作为一家老资格的3D技术公司,他推出了业界的第一块线D图形加速卡:Voodoo。在当时最为流行的游戏摩托英豪里,Voodoo在速度以及色彩方面的表现都让喜欢游戏的用户为之疯狂,不少游戏狂热份子都有过拿一千多块大洋到电脑城买上一块杂牌的Voodoo显卡的经历。3Dfx的专利技术Glide引擎接口一度称霸了整个3D世界,直至D3D和OpenGL的出现才改变了这种局面。Voodoo标配为4Mb显存,能够提供在640×480分辨率下3D显示速度和最华丽的画面,当然,Voodoo也有硬伤,它只是一块具有3D加速功能的子卡,使用时需搭配一块具有2D功能的显卡,相信不少老EDO资格的玩家都还记得S3 765+Voodoo这个为人津津乐道的黄金组合。讲到S3 765,就不得不提到昔日王者S3显卡了。
S3 765显卡是当时兼容机的标准配置,最高支持2MB EDO显存,能够实现高分辨率显示,这在当时属于高端显卡的功效,这一芯片真正将SVGA发扬光大。能够支持1024×768的分辨率,并且在低分辨率下支持最高32Bit真彩色,而且性价比也较强。因此,S3 765实际上为S3显卡带来了第一次的辉煌。
而後在96年又推出了S3 Virge,它是一块融合了3D加速的显卡,支持DirectX,并包含的许多先进的3D加速功能,如Z-buffering、Doubling buffering、Shading、Atmospheric effect、Lighting,实际成为3D显卡的开路先锋,成就了S3显卡的第二次辉煌,可惜后来在3Dfx的追赶下,S3的Virge系列没有再继辉煌,被市场最终抛弃。
此后,为了修复Voodoo没有2D显示这个硬伤,3Dfx继而推出了VoodooRush,在其中加入了Z-Buffer技术,可惜相对于Voodoo,VoodooRush的3D性能却没有任何提升,更可怕的是带来不少兼容性的问题,而且价格居高不下的因素也制约了VoodooRush显卡的推广。
当然,当时的3D图形加速卡市场也不是3Dfx一手遮天,高高在上的价格给其他厂商留下了不少生存空间,像勘称当时性价比之王的Trident 9750/9850,以及提供了Mpeg-II硬件解码技术的SIS6326,还有在显卡发展史上第一次出场的nVidia推出的Riva128/128zx,都得到不少玩家的宠爱,这也促进了显卡技术的发展和市场的成熟。1997年是3D显卡初露头脚的一年,而1998年则是3D显卡如雨後春笋激烈竞争的一年。九八年的3D游戏市场风起去涌,大量更加精美的3D游戏集体上市,从而让用户和厂商都期待出现更快更强的显卡。
在Voodoo带来的巨大荣誉和耀眼的光环下,3Dfx以高屋建瓴之势推出了又一划时代的产品:Voodoo2。Voodoo2自带8Mb/12Mb EDO显存,PCI接口,卡上有双芯片,可以做到单周期多纹理运算。当然Voodoo2也有缺点,它的卡身很长,并且芯片发热量非常大,也成为一个烦恼,而且Voodoo2依然作为一块3D加速子卡,需要一块2D显卡的支持。但是不可否认,Voodoo2的推出已经使得3D加速又到达了一个新的里程碑,凭借Voodoo2的效果、画面和速度,征服了不少当时盛行一时的3D游戏,比如Fifa98,NBA98,Quake2等等。也许不少用户还不知道,2009年最为流行的SLI技术也是当时Voodoo2的一个新技术,Voodoo2第一次支持双显卡技术,让两块Voodoo2并联协同工作获得双倍的性能。
1998年虽然是Voodoo2大放异彩的一年,但其他厂商也有一些经典之作。Matrox MGA G200在继承了自己超一流的2D水准以外,3D方面有了革命性的提高,不但可以提供和Voodoo2差不多的处理速度和特技效果,另外还支持DVD硬解码和视频输出,并且独一无二的首创了128位独立双重总线技术,大大提高了性能,配合当时相当走红的AGP总线也赢得了不少用户的喜爱。
Intel的I740是搭配Intel当时的440BX芯片组推出的,它支持的AGP 2X技术,标配和记官网8Mb显存,可惜I740的性能并不好,2D性能只能和S3 Virge看齐,而3D方面也只有Riva128的水平,不过价格方面就有明显优势,让它在低端市场站住了脚。
Riva TNT是nVidia推出的意在阻击Voodoo2的产品,它标配16Mb的大显存,完全支持AGP技术,首次支持32位色彩渲染、还有快于Voodoo2的D3D性能和低于Voodoo2的价格,让其成为不少玩家的新宠。而一直在苹果世界闯荡的ATI也出品了一款名为Rage Pro的显卡,速度比Voodoo稍快。
2001年春季的IDF上Intel正式公布PCI Express,是取代PCI总线的第三代I/O技术,也称为3GIO。该总线的规范由Intel支持的AWG(Arapahoe Working Group)负责制定。2002 年4月17日,AWG正式宣布3GIO 1.0规范草稿制定完毕,并移交PCI-SIG进行审核。开始的时候大家都以为它会被命名为Serial PCI(受到串行ATA的影响),但最后却被正式命名为PCI Express。2006年正式推出Spec2.0(2.0规范)。
PCI Express总线技术的演进过程,实际上是计算系统I/O接口速率演进的过程。PCI总线是一种或者的并行总线MB/s,连接在PCI总线MB/s带宽。这种总线等接口基本不成问题。随着计算机和通信技术的进一步发展,新一代的I/O接口大量涌现,比如千兆(GE)、万兆(10GE)的以太网技术、4G/8G的FC技术,使得PCI总线的带宽已经无力应付计算系统内部大量高带宽并行读写的要求,PCI总线也成为系统性能提升的瓶颈,于是就出现了PCI Express总线。PCI Express总线技术在新一代的存储系统已经普遍的应用。PCI Express总线能够提供极高的带宽,来满足系统的需求。
截至2009年,PCI-E 3.0规范也已经确定,其编码数据速率,比同等情况下的PCI-E 2.0规范提高了一倍,X32端口的双向速率高达320Gbps。
PCI总线的最大优点是总线结构简单、成本低、设计简单,但是缺点也比较明显:
1)并行总线无法连接太多设备,总线扩展性比较差,线间干扰将导致系统无法正常工作
3)为了降低成本和尽可能减少相互间的干扰,需要减少总线带宽,或者地址总线和数据总线采用复用方式设计,这样降低了带宽利用率。PCI Express总线是为将来的计算机和通讯平台定义的一种高性能,通用I/O互连总线。
2)PCI Express总线支持双向传输模式和数据分通道传输模式。其中数据分通道传输模式即PCI Express总线单向传输带宽即可达到250MB/s,双向传输带宽更能够达到500MB/s,这个已经不是普通PCI总线)PCI Express总线充分利用先进的点到点互连、基于交换的技术、基于包的协议来实现新的总线性能和特征。电源管理、服务质量(QoS)、热插拔支持、数据完整性、错误处理机制等也是PCI Express总线所支持的高级特征。
4)与PCI总线良好的继承性,可以保持软件的继承和可靠性。PCI Express总线关键的PCI特征,比如应用模型、存储结构、软件接口等与传统PCI总线保持一致,但是并行的PCI总线被一种具有高度扩展性的、完全串行的总线)PCI Express总线充分利用先进的点到点互连,降低了系统硬件平台设计的复杂性和难度,从而大大降低了系统的开发制造设计成本,极大地提高系统的性价比和健壮性。从下面表格可以看出,系统总线带宽提高同时,减少了硬件PIN的数量,硬件的成本直接下降。
1999年,世纪末的显卡市场出现了百花齐开的局面,而且这一年也让市场摆脱了3Dfx的一家独霸局面,由于战略的失误,让3Dfx失去了市场,它推出了Voodoo3,配备了16Mb显存,支持16色渲染。虽然在画质上无可挑剔,但是高昂的价格以及与市场格格不入的标准让它难掩颓势。世纪末的这一年,显卡的辉煌留给了NVidia。
在1999年,NVidia挟TNT之馀威推出TNT2 Ultra、TNT2和TNT2 M64三个版本的芯片,後来又有PRO和VANTA两个版本。这种分类方式也促使後来各个生产厂家对同一芯片进行高中低端的划分,以满足不同层次的消费需要。TNT系列配备了8Mb到32Mb的显存,支持AGP2X/4X,支持32位渲染等等众多技术,虽然16位色下画面大大逊色于Voodoo3,但是在32位色下,表现却可圈可点,还有在16位色下,TNT2的性能已经略微超过Voodoo3了,不过客观的说,在32位色下,TNT系列显卡性能损失相当多,速度上跟不上Voodoo3了。当然,NVidia能战胜Voodoo3,与3Dfx公司推行的策略迫使许多厂商投奔NVidia也不无关系,促进了TNT系列的推广。显卡市场上出现了NVidia与3Dfx两家争霸的局面。
1999年的显卡市场不可遗忘的还有来自Matrox MGA G400,它拥有16Mb/32Mb的显存容量,支持AGP 2X/4X,还有支持大纹理以及32位渲染等等,都是当时业界非常流行和肯定的技术,除此之外,独特、漂亮的EMBM硬件凹凸贴图技术,营造出的完美凹凸感并能实现动态光影效果的技术确实让无数游戏玩家为之疯狂,在3D方面,其速度和画面基本都是介于Voodoo3和TNT2之间,并且G400拥有优秀的DVD回放能力,不过由于价格以及它注重于OEM和专业市场,因此,在民用显卡市场所占的比例并不大!
从1999年到2000年,NVidia终于爆发了。它在1999年末推出了一款革命性的显卡---Geforce 256,彻底打败了3Dfx。代号NV10的GeForce 256支持Cube-Environment Mapping,完全的硬件T&L(Transform & Lighting),把原来有CPU计算的数据直接交给显示芯片处理,大大解放了CPU,也提高了芯片的使用效率。GeForce256拥有4条图形纹理信道,单周期每条信道处理两个象素纹理,工作频率120MHz,全速可以达到480Mpixels/Sec,支持SDRAM和DDR RAM,使用DDR的产品能更好的发挥GeForce256的性能。其不足之处就在于采用了0.22微米的工艺技术,发热量比较高。
2000年,NVidia开发出了第五代的3D图形加速卡---Geforce 2,采用了0.18微米的工艺技术,不仅大大降低了发热量,而且使得GeForce2的工作频率可以提高到200MHz。Geforce 2拥有四条图形纹理信道,单周期每条信道处理两个象素纹理,并且使用DDR RAM解决显存带宽不足的问题。在Geforce 256的基础上,GeForce2还拥有NSR(NVIDIA Shading Rasterizer),支持Per-Pixel Shading技术,同时支持S3TC、FSAA、Dot-3 Bump Mapping以及硬件MPEG-2动态补偿功能,完全支持微软的DirectX 7。而面对不同的市场分级,它相继推出了低端的GF2 MX系列以及面向高端市场的GF2 Pro和GF GTS,全线的产品线让nVidia当之无愧地成为显卡的霸主。
而作为NVidia主要竞争对手的ATI,也在两千年凭借T&L技术打开市场。在经历“曙光女神”的失败後,ATI也推出了自己的T&L芯片RADEON 256,RADEON也和NVIDIA一样具有高低端的版本,完全硬件T&L,Dot3和环境映射凹凸贴图,还有两条纹理流水线,可以同时处理三种纹理。但最出彩的是HYPER-Z技术,大大提高了RADEON显卡的3D速度,拉近了与GEFORCE 2系列的距离,ATI的显卡也开始在市场占据主导地位。
两千年的低端市场还有来自Trident的这款Blade T64,Blade XP核心属于Trident第一款256位的绘图处理器,采用0.18微米的制造工艺,核心时钟频率为200 MHz,像素填充率达到1.6G,与Geforce2GTS处于同一等级,支持Direct X7.0等等。可惜由于驱动程序以及性能等方面的原因,得不到用户的支持。
踏入2001年以后,如同桌面处理器市场的Intel和AMD一样,显卡市场演变为nVidia与ATI两雄争霸的局势。nVidia方面,凭借刚刚推出的Geforce 3系列占据了不少市场,Geforce 3 Ti 500,Geforce 2 Ti和Geforce 3Ti,Geforce MX分别定位于高中低三线市场。与GeForce 2系列显卡相比,GeForce 3显卡最主要的改进之处就是增加了可编程T&L功能,能够对几乎所有的画面效果提供硬件支持。GeForce 3总共具有4条像素管道,填充速率最高可以达到每秒钟800 Mpixels。Geforce 3系列还拥有nfiniteFX顶点处理器、nfiniteFX像素处理器以及Quincunx抗锯齿系统等技术。
而作为与之相抗衡的ATI Radeon 8500/7500系列,采用0.15微米工艺制造,包括6000万个晶体管,采用了不少新技术(如Truform、Smartshader等)。并根据显卡的核心/显存工作频率分成不同的档次——核心/显存分别为275/550MHz的标准版,核心/显存为250/500MHz的RADEON 8500LE,核心/显存频率分别为300/600MHz的Ultra版,以及中端的Radeon 7500,低端的Radeon 7200,7000等产品。值得一提的是Radeon 8500还支持双头显示技术。
2002年,nVidia与ATI的竞争更加白热化。为巩固其图形芯片市场霸主地位,nVidia推出了Geforce 4系列,分别为GeForce4 Ti4800,GeForce4 Ti 4600, GeForce4 Ti4400, GeForce4 Ti4200,GeForce4 MX 460, GeForce4 MX 440 和GeForce4 MX 420。GeForce4 Ti系列无疑是最和记官网具性价比的,其代号是NV25,它主要针对当时的高端图形市场,是DirectX 8时代下最强劲的GPU图形处理器。芯片内部包含的晶体管数量高达6千3百万,使用0.15微米工艺生产,采用了新的PBGA封装,运行频率达到了300MHz,配合频率为650MHz DDR显存,可以实现每秒49亿次的采样。GeForce4 Ti核心内建4条渲染流水线个TMU(材质贴图单元)。Geforce 4系列从高到低,横扫了整个显卡市场。
作为反击,ATI出品了R9700/9000/9500系列,首次支持DirectX 9,使其在与NVidia的竞争中抢得先机。而R9700更是在速度与性能方面首次超越NVidia。R9700支持AGP 8X、DirectX 9,核心频率是300MHz,显存时钟是550MHz。RADEON 9700,实现了可程序化的革命性硬件架构。符合绘图回事商品AGP 8X最新标准,配有8个平等处理的彩绘管线个并列的几何处理引擎更能处理每秒3亿个形迹及光效多边形。而R9000是面向低端的产品,R9500则直挑Ti4200。
同年,SiS发布了Xabre系列。它是第一款AGP 8×显卡,全面支持DirectX 8.1,在发布之时是相当抢眼的。Xabre系列图形芯片采用0.15微米工艺,具备4条像素渲染流水线,并且每条流水线拥有两个贴图单元。理论上可提供高达1200M Pixels/s的像素填充率和2400M Texels/s的材质填充率。随後发布的Xabre600,采用0.13微米工艺,主频和显存频率都提高了不少,性能与GeForce4 Ti4200差不多。
2004年也是ATI大放异彩的一年,不过其最大的功臣却是来自于面向中低端的Radeon 9550。这款2004年最具性价比的显卡,让ATI在低端市场呼风唤雨。R9550基于RV350核心,采用0.13微米制程,核心频率为250MHz,显存频率为400MHz,4条渲染管道,1个纹理单元,同时兼容64bit和128bit。这款产品是9600的降频版,但是通过改造,都可以变成R9600,性价比极强。而老对手的N卡方面,却只推出了一款新品GF FX 5900XT/SE,而与R9550处于同一竞争线LE系列,虽然性能不错,可惜价格却没有优势,被R9550彻底打败。2004年让nVidia郁闷了一整年。
ATI从2005年开始就一直被Nvidia压制,无论是1950XTX对抗7900GTX,2900XT对抗8800GTX,3870X2对抗9800GX2,在旗舰产品上,ATi一直属于劣势,但在2008年6月发生了转机,ATi发布了RV770,无论是从市场定价还是从性能上都是十分让人满意的,特别是改善了A卡在AA上的性能不足,RV770的中端4850的价格更是让Nvidia措手不及,无奈在一周内9800GTX降价1000元,但无论是性能还是价格依旧挡不住4850的攻势,4870紧接着发布,采用DDR5显存的RV770浮点运算能力更是达到了1TB/S,Nvidia发布的新核心GT200的旗舰版本GTX280虽然在性能上暂时取得了暂时的领先,但是和4870相比只有10%的性能差距,而且由于工艺较落后,导致成本过高,没有性价比,就在人们以为ATi放弃旗舰,准备走性价比路线,并且大幅度改良了桥接芯片的性能,领先GTX280高达50-80%,而GTX280的核心面积已经大的恐怖,不可能衍生出单卡双芯,所以ATi依靠单卡双芯重新夺得了性能之王。