博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
CPU和GPU的区别
阅读量:6902 次
发布时间:2019-06-27

本文共 1295 字,大约阅读时间需要 4 分钟。

本文是一个转载,觉得介绍的简单而且精辟,对应要认识cpu和gpu的我来说,很好,原文地址:

异构计算的英文名称是Heterogeneous computing,主要是指使用不同类型指令集和体系架构的计算单元组成系统的计算方式。常见的计算单元类别包括CPU、GPU等协处理器、DSP、ASIC、FPGA等。我们常说的并行计算正是异构计算中的重要组成部分异构计算近年来得到更多关注,主要是因为通过提升CPU时钟频率和内核数量而提高计算能力的传统方式遇到了散热和能耗瓶颈。而与此同时,GPU等专用计算单元虽然工作频率较低,具有更多的内核数和并行计算能力,总体性能/芯片面积的比和性能/功耗比都很高,却远远没有得到充分利用。

CPU的设计让其比较擅长于处理不规则数据结构和不可预测的存取模式,以及递归算法、分支密集型代码和单线程程序。这类程序任务拥有复杂的指令调度、循环、分支、逻辑判断以及执行等步骤。而GPU擅于处理规则数据结构和可预测存取模式。而APU的设计理念则正是让CPU和GPU完美合作,集合两者的长处,用异构计算来达到整体性能的最佳化。

目前,已经有50款领先的应用能够利用AMD APU进行加速,而后续的应用也将陆续到来——异构计算普及的一刻应该是近在咫尺了。

再谈谈现在正在流行的异构计算CPU+GPU。

CPU和GPU的本质区别

CPU的目标是快速执行单一指令流;

CPU将其用于乱序执行、寄存器重命名、分支预测以及巨大的cache上,这些设计都是为了加速单一线程的执行速度;

CPU利用cache来降低内存访问延迟;

CPU通过大量的cache和分支预测来降低延迟,这些机制消耗了大量的晶体管的电能;

CPU每个核心支持1~2个线程;

CPU切换线程的代价是数百个时钟周期;

CPU通过SIMD(单指令多数据)来处理矢量数据;

Intel的CPU没有集成内存控制器;

 

GPU的目标是快速执行大量的并行指令流;

GPU将晶体管用于处理器阵列、多线程管理、共享内存、内存控制器;

这些设计并不着眼于提高单一线程的执行速度,而是为了使GPU可以同时执行成千上万的线程;

实现线程间通信,并提供极高的内存带宽;

GPU使用cache来放大内存带宽;

GPU通过同时运行上千个线程来隐藏延迟,等待内存访问的线程会被切换掉,GPU切换线程不耗时间;

对于支持CUDA的GPU,每个流处理器可以同时处理1024个线程;

GPU切换线程的代价是0,事实上GPU通常每个时钟周期都切换线程;

GPU则使用SIMT(单指令多线程),SIMT的好处是无需开发者费力把数据凑成合适的矢量长度,并且SIMT允许每个线程有不同的分支;

支持CUDA的GPU集成有8个内存控制器,GPU的内存带宽通常是CPU的十倍。

 

CPU的长项是整数计算,GPU的优势则是浮点计算。

对于整机性能而言,CPU和GPU都是性能的保障,合理的搭配才是重中之重,才能给用户带来最强的综合性能。

转载于:https://www.cnblogs.com/viviman/archive/2012/11/26/2789113.html

你可能感兴趣的文章
用 JavaScript 操作字符串
查看>>
Oracle计算时间差常用函数
查看>>
外链的理解
查看>>
机器学习:选对时机直线超车
查看>>
Java基础基本常识
查看>>
谈谈Python实战数据可视化之matplotlib模块(实战篇)
查看>>
2.27linux和windows互传文件 3.1 用户配置文件和密码配置文件 3.2 用户组管理
查看>>
Java程序员需要技术能力达到什么程度,才能拿到月薪30k?
查看>>
Java之品优购课程讲义_day14(5)
查看>>
Jenkins 持续集成使用教程
查看>>
MongoDB复制集
查看>>
oracle sql
查看>>
强制弹出页面代码(以及自动最小化功能)
查看>>
关于Centos7无法连接网络,安装tree命令及修改ONBOOT选项后退出的程序!
查看>>
VRRP单备份配置
查看>>
好程序员学习笔记:函数
查看>>
如何打造工业物联网帝国?
查看>>
Linux系统安全之grub密码和用户权限
查看>>
超人学院Hadoop大数据资源分享
查看>>
C# 压缩PDF图片
查看>>