网站首页 > 资源文章 正文
表示算力速度的单位有 TOPS和FLOPS,其中OPS指的是每秒处理次数
TOPS
TOPS表示对INT8整型数的处理次数(INT8省略不写),通常自动驾驶芯片算力使用此单位
FLOPS
FLOPS指的是对FP32浮点数的处理次数。表示每秒浮点的运算次数。FLOPS前面通常还会有一个字母常量,例如TFLOPS、PFLOPS。这个字母T、P代表次数,T代表每秒一万亿次,P代表每秒一千万亿次。通常显卡和AI处理器使用此单位
OPS (operations per second) 每秒处理次数
TOPS (Tera operations per second) 每秒处理的万亿次数
FLOPS (Floating point number operations per second) 每秒处理浮点数次数
TFLOPS (Tera Floating point number operations per second) 每秒处理浮点数的万亿次数
运算数据精度
双精度浮点数(64位,FP64):使用 64 位(8字节) 来存储一个浮点数,其中1位为符号位,11位指数位,52位小数位
单精度浮点数(32位,FP32):占用4个字节,共32bit位,其中1位为符号位,8位指数位,23位小数位
半精度浮点数(16位,FP16):占用2个字节,共16位,其中1位为符号位,5位指数位,10位有效数字位(小数),与FP32相比,FP16的访存消耗仅为1/2,也因此FP16是更适合在移动终端侧进行AI计算的数据格式
8位整型数(INT8、INT4):占用1个字节,INT8是一种定点计算方式,代表整数运算,一般是由浮点运算量化而来。虽然INT8比FP16精度低,但是数据量小、能耗低,计算速度相对更快,更适合端侧运算
混合精度:使用fp16进行乘法和存储,只使用fp32进行加法操作,避免累加误差
低精度技术 (high speed reduced precision)
深度学习中,在training阶段,梯度的更新往往是很微小的,需要相对较高的精度,一般要用到FP32以上。在inference的时候,精度要求没有那么高,一般F16(半精度)就可以,甚至可以用INT8(8位整型),精度影响不会很大。同时低精度的模型占用空间更小了,有利于部署在移动端模型里面。
猜你喜欢
- 2025-04-05 Xbox X硬件规格:12 TFLOPS/快速恢复/支持120帧
- 2025-04-05 最前线 | 特斯拉超算Dojo下月投产,24年末年算力可达 100 Exa-Flops
- 2025-04-05 广东:到2025年,全省算力规模超过40EFLOPS
- 2025-04-05 “东数西算”让数字化“脚步”更快更稳
- 2025-04-05 NVIDIA将推氢弹级7nm安培GPU 性能提升100%不是梦
- 2025-04-05 广东:到2025年全省算力规模超过40EFLOPS,人工智能核心产业规模超过3000亿元
- 2025-04-05 TFLOPS啥意思 性能对比这样看才靠谱
- 2025-04-05 FLOPS解释,计算和实际应用,以及典型设备的FLOPS
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- 电脑显示器花屏 (79)
- 403 forbidden (65)
- linux怎么查看系统版本 (54)
- 补码运算 (63)
- 缓存服务器 (61)
- 定时重启 (59)
- plsql developer (73)
- 对话框打开时命令无法执行 (61)
- excel数据透视表 (72)
- oracle认证 (56)
- 网页不能复制 (84)
- photoshop外挂滤镜 (58)
- 网页无法复制粘贴 (55)
- vmware workstation 7 1 3 (78)
- jdk 64位下载 (65)
- phpstudy 2013 (66)
- 卡通形象生成 (55)
- psd模板免费下载 (67)
- shift (58)
- localhost打不开 (58)
- 检测代理服务器设置 (55)
- frequency (66)
- indesign教程 (55)
- 运行命令大全 (61)
- ping exe (64)
本文暂时没有评论,来添加一个吧(●'◡'●)