GPU发表评论(0)编辑词条
基本概述编辑本段回目录
gpu |
NVIDIA公司在1999年发布GeForce256图形处理芯片时首先提出GPU的概念。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬体T&L、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬体T&L技术可以说是GPU的标志。
GPU能够从硬件上支持T&L(TransformandLighting,多边形转换与光源处理)的显示芯片,因为T&L是3D渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,也可以称为“几何处理”。一个好的T&L单元,可以提供细致的3D物体和高级的光线特效;只不过大多数PC中,T&L的大部分运算是交由CPU处理的(这就也就是所谓的软件T&L),由于CPU的任务繁多,除了T&L之外,还要做内存管理、输入响应等非3D图形处理工作,因此在实际运算的时候性能会大打折扣,常常出现显卡等待CPU数据的情况,其运算速度远跟不上今天复杂三维游戏的要求。即使CPU的工作频率超过1GHz或更高,对它的帮助也不大,由于这是PC本身设计造成的问题,与CPU的速度无太大关系。
区别DSP编辑本段回目录
gpu |
尽管有上述约束,但是GPU还是可以有效地执行多种运算,从线性代数和信号处理到数值仿真。虽然概念简单,但新用户在使用GPU计算时还是会感到迷惑,因为GPU需要专有的图形知识。这种情况下,一些软件工具可以提供帮助。两种高级描影语言CG和HLSL能够让用户编写类似C的代码,随后编译成碎片程序汇编语言。Brook是专为GPU计算设计,且不需要图形知识的高级语言。因此对第一次使用GPU进行开发的工作人员而言,它可以算是一个很好的起点。Brook是C语言的延伸,整合了可以直接映射到GPU的简单数据并行编程构造。
经GPU存储和操作的数据被形象地比喻成“流”(stream),类似于标准C中的数组。核心(Kernel)是在流上操作的函数。在一系列输入流上调用一个核心函数意味着在流元素上实施了隐含的循环,即对每一个流元素调用核心体。Brook还提供了约简机制,例如对一个流中所有的元素进行和、最大值或乘积计算。Brook还完全隐藏了图形API的所有细节,并把GPU中类似二维存储器系统这样许多用户不熟悉的部分进行了虚拟化处理。用Brook编写的应用程序包括线性代数子程序、快速傅立叶转换、光线追踪和图像处理。利用ATI的X800XT和Nvidia的GeForce6800Ultra型GPU,在相同高速缓存、SSE汇编优化Pentium4执行条件下,许多此类应用的速度提升高达7倍之多。
对GPU计算感兴趣的用户努力将算法映射到图形基本元素。类似Brook这样的高级编程语言的问世使编程新手也能够很容易就掌握GPU的性能优势。访问GPU计算功能的便利性也使得GPU的演变将继续下去,不仅仅作为绘制引擎,而是会成为个人电脑的主要计算引擎。
软件识别编辑本段回目录
gpu |
GPU的竞争远比CPU的竞争来得激烈。通用PC的CPU就只有英特尔和AMD两家大厂。而在GPU方面领先的是N记和A记两家厂商,但能生产中低端产品的还有英特尔、3S等好几家厂商。它们的产品虽然不如前两家,但在很多应用方面也能满足用户的需要,所以N记和A记只有拼命往前跑才不会死掉。CPU厂商没有采用GPU的先进工艺是因为CPU厂商都有自己投资的生产线,不可能一下把原来的生产线都淘汰了上新的生产线,那样做可能连当初投入的资金都难以收回。而GPU厂商由于种种原因,一般都是自己设计由别人代工的,比如找台积电代工。代工厂商为了能接到业务,只有不停升级自己的生产设备,这样才能生存下来。所以造成以上原因。
CPU除了处理游戏的AI,情节等方面的数据外,对于有些图像方面也是由它完成的。当微软每次发布新的DX时,并不是每款GPU都能支持DX新的特性,所以有些图像方面的任务还得由CPU来完成。还有有些特性比如重力特性以前是由CPU来完成,现在有些GPU也能支持了,这些任务就由GPU来完成了。
GPU相当于专用于图像处理的CPU,正因为它专,所以它强,在处理图像时它的工作效率远高于CPU,但是CPU是通用的数据处理器,在处理数值计算时是它的强项,它能完成的任务是GPU无法代替的,所以不能用GPU来代替CPU。
AMD收购了A记显卡芯片的设计厂商,AMD看到以后CPU和GPU只有走一条融合的道路才能地竞争中占得先机。CPU和GPU如何配合默契才能最大地提高工作效率是AMD现在考虑的问题,也是英特尔的问题。
Intel构架编辑本段回目录
gpu |
Intel路线图,2010年也将是32nmGesher架构处理器发布的时间,而采用45nm工艺的Larrabee很可能与之同时现身,业界也能更好地直接对比二者的差异。此外,NVIDIA的下一代图形芯片G92也宣称具备万亿次运算能力,发布时间应该会早于Larrabee。
Intel正在开发一种名为“Ct”的编程语言,Ct基于C和C++语言,可以很好地处理大规模复杂并行运算,将繁重的工作任务很好地分配到各个处理核心上。无论是在编译期间还是在运行期间,Ct代码都为多核心进行了优化,因此能大大简化开发人员为多核心架构编程的难度,使之仿佛是在为一个核心编写程序。
Intel计划在不久后向开源社区发布一个Ct的预览版,而且Intel正在处理有关法律问题,争取实现整个项目的开源。Larrabee在首发时可能会有24和32个核心,2008年升级到48个。
gpu |
Carmean还比较了CPU和GPU各自在多个方面的优缺点,在线性代数的计算方面(图表的左边),GPU较CPU领先。而从图片和视频的处理,一直到分类、解析几何等等的用途上,CPU逐渐找到了自己的优势。算法越是无序CPU就有优势,而计算需求更加有序,就是GPU的优势所在。
所以CPU和GPU之间就是谁能够夺取开发者们,如果程序开发者编写更多整齐规律的算法程序,使用GPU就更有利,而CPU厂商则认为越无规律越好。不过两者的差距也在逐渐缩小,最后胜出的可能需要最好的整合才行。
相关词条编辑本段回目录
参考资料编辑本段回目录
→如果您认为本词条还有待完善,请 编辑词条
词条内容仅供参考,如果您需要解决具体问题
(尤其在法律、医学等领域),建议您咨询相关领域专业人士。
0
标签: GPU
同义词: 暂无同义词
关于本词条的评论 (共0条)发表评论>>