国产 无码 综合区,色欲AV无码国产永久播放,无码天堂亚洲国产AV,国产日韩欧美女同一区二区

int8,F(xiàn)LOPS,F(xiàn)LOPs,TOPS 等具體含義

這篇具有很好參考價值的文章主要介紹了int8,F(xiàn)LOPS,F(xiàn)LOPs,TOPS 等具體含義。希望對大家有所幫助。如果存在錯誤或未考慮完全的地方,請大家不吝賜教,您也可以點擊"舉報違法"按鈕提交疑問。

1、定義

算力的計量單位FLOPS(Floating-point operations per second),F(xiàn)LOPS表示每秒浮點的運算次數(shù)。具體使用時,F(xiàn)LOPS前面還會有一個字母常量,例如TFLOPS、PFLOPS。這個字母T、P代表次數(shù),T代表每秒一萬億次,P代表每秒一千萬億次。

除了運算次數(shù),衡量算力水平時還要看算力精度。例如,1000FLOPS的AI計算中心所提供的的算力,與1000FLOPS超級計算機提供的算力,雖然數(shù)值相同,但由于精度不同,實際算力水平也是天壤之別。

根據(jù)參與運算數(shù)據(jù)精度的不同,可把算力分為

  1. 雙精度浮點數(shù)(64位,F(xiàn)P64)
  2. 單精度浮點數(shù)(32位,F(xiàn)P32),占用4個字節(jié),共32bit位,其中1位為符號位,8位指數(shù)位,23位小數(shù)位
  3. 半精度浮點數(shù)(16位,F(xiàn)P16),占用2個字節(jié),共16位,其中1位為符號位,5位指數(shù)位,10位有效數(shù)字位(小數(shù)),與FP32相比,F(xiàn)P16的訪存消耗僅為1/2,也因此FP16是更適合在移動終端側進行AI計算的數(shù)據(jù)格式。
  4. 用5bit 表示指數(shù),10bit 表示小數(shù),占用2字節(jié);
  5. 8位整型數(shù)(INT8、INT4),占用1個字節(jié),INT8是一種定點計算方式,代表整數(shù)運算,一般是由浮點運算量化而來。在二進制中一個“0”或者“1”為一bit,INT8則意味著用8bit來表示一個數(shù)字。因此,雖然INT8比FP16精度低,但是數(shù)據(jù)量小、能耗低,計算速度相對更快,更符合端側運算的特點;
  6. 混合精度:簡單的講就是使用fp16進行乘法和存儲,只使用fp32進行加法操作,避免累加誤差;

在數(shù)據(jù)表示范圍上,F(xiàn)P32和FP16 表示的整數(shù)范圍是一樣的,小數(shù)部分表示不一樣,存在舍入誤差;FP32和FP16 表示的數(shù)據(jù)范圍不一樣,在大數(shù)據(jù)計算中,F(xiàn)P16存在溢出風險。

int8,F(xiàn)LOPS,F(xiàn)LOPs,TOPS 等具體含義

?int8,F(xiàn)LOPS,F(xiàn)LOPs,TOPS 等具體含義

?以下為int8范圍為何是-128 至 127的解釋

int8占1個字節(jié),1字節(jié)(byte)占8位(bit), 其中最高位代表符號位 1-負號;0-正號
那么最大數(shù)值的二進制為:
0 1 1 1 1 1 1 1
換算成10進制為 從低位到高位開始計算
0 ? ? ? 1 ? ? ? 1 ? ? ? 1 ? ? ? 1 ? ? ? 1 ? ? ? 1 ? ? ? 1
0*2^7 + 1*2^6 + 1*2^5 + 1*2^4 + 1*2^3 + 1*2^2 + 1*2^1 + 1*2^0
0 ? ? + 64 ? ?+ 32 ? ?+ 16 ? ?+ 8 ? ? + 4 ? ? + 2 ? ? + 1
= 127

最小數(shù)值的二進制應與最大數(shù)值相反, 10000000
換算成10進制為 從低位到高位開始計算
1???????0???????0???????0???????0???????0???????0???????0
1*2^7 + 0*2^6 + 0*2^5 + 0*2^4 + 0*2^3 + 0*2^2 + 0*2^1 + 0*2^0
128???+ 0?????+ 0?????+ 0?????+ 0?????+ 0?????+ 0?????+ 0
= 128
?
其實還有一種很好理解的解釋
1.int8占1個字節(jié)(byte) 也就是8個二進制位(bit)
2.每個二進制位 可以存儲0 和 1 兩個數(shù) ,8個二進制位就有2^8 = 256種組合(可以存儲256個數(shù))
3.int8為有符號,所以正數(shù)和負數(shù)將平分256個數(shù)。256 / 2 = 128
4.負數(shù)為128個數(shù) 最小值為-128
5.正數(shù)為128個數(shù),0占一個數(shù) 最大值為+127
?
如果是uint8(8bit無符號-沒有負數(shù)) 2^8 = 256
0 占一個數(shù) ,所以最大是255

2、比較

低精度技術 (high speed reduced precision)。在training階段,梯度的更新往往是很微小的,需要相對較高的精度,一般要用到FP32以上。在inference的時候,精度要求沒有那么高,一般F16(半精度)就可以,甚至可以用INT8(8位整型),精度影響不會很大。同時低精度的模型占用空間更小了,有利于部署在嵌入式模型里面。

利用fp16 代替 fp32
優(yōu)點:
1)TensorRT的FP16與FP32相比能有接近一倍的速度提升,前提是GPU支持FP16(如最新的2070,2080,2080ti等)
2)減少顯存。
缺點:
1) 會造成溢出

3、測試

int8,F(xiàn)LOPS,F(xiàn)LOPs,TOPS 等具體含義

參考文章:TensorRT模型轉換及部署,F(xiàn)P32/FP16/INT8精度區(qū)分_BourneA的博客-CSDN博客_tensorrt半精度文章來源地址http://www.zghlxwxcb.cn/news/detail-439596.html

到了這里,關于int8,F(xiàn)LOPS,F(xiàn)LOPs,TOPS 等具體含義的文章就介紹完了。如果您還想了解更多內(nèi)容,請在右上角搜索TOY模板網(wǎng)以前的文章或繼續(xù)瀏覽下面的相關文章,希望大家以后多多支持TOY模板網(wǎng)!

本文來自互聯(lián)網(wǎng)用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。如若轉載,請注明出處: 如若內(nèi)容造成侵權/違法違規(guī)/事實不符,請點擊違法舉報進行投訴反饋,一經(jīng)查實,立即刪除!

領支付寶紅包贊助服務器費用

相關文章

  • 一文講解thop庫計算FLOPs問題

    一文講解thop庫計算FLOPs問題

    計算模型的FLOPs及參數(shù)大小 FLOPS是處理器性能的衡量指標,是“每秒所執(zhí)行的浮點運算次數(shù)”的縮寫。 FLOPs是算法復雜度的衡量指標,是“浮點運算次數(shù)”的縮寫,s代表的是復數(shù)。 一般使用thop庫來計算,GitHub: https://github.com/Lyken17/pytorch-OpCounter 但官網(wǎng)的Readme中詳細寫出了是

    2024年01月19日
    瀏覽(26)
  • 神經(jīng)網(wǎng)絡模型的參數(shù)量和FlOPS

    神經(jīng)網(wǎng)絡模型的參數(shù)量和FlOPS

    FLOPS:注意S是大寫,是 “每秒所執(zhí)行的浮點運算次數(shù)”(floating-point operations per second)的縮寫。它常被用來估算電腦的執(zhí)行效能,尤其是在使用到大量浮點運算的科學計算領域中。正因為FLOPS字尾的那個S,代表秒,而不是復數(shù),所以不能省略掉。 FLOPs:注意s小寫,是floatin

    2024年02月02日
    瀏覽(18)
  • 統(tǒng)計神經(jīng)網(wǎng)絡參數(shù)量、MAC、FLOPs等信息

    1、FLOPS是用來衡量硬件算力的指標,F(xiàn)LOPs用來衡量模型復雜度。 2、MAC 一般為 FLOPs的2倍 3、并非FLOPs越小在硬件上就一定運行更快,還與模型占用的內(nèi)存,帶寬,等有關 神經(jīng)網(wǎng)絡參數(shù)量。用于衡量模型大小。一般卷積計算方式為: F L O P s = 2 ? H W ( K h ? K w ? C i n + 1 ) C o u

    2024年02月15日
    瀏覽(37)
  • 「HDLBits題解」Latches and Flip-Flops

    本專欄的目的是分享可以通過HDLBits仿真的Verilog代碼 以提供參考 各位可同時參考我的代碼和官方題解代碼 或許會有所收益 題目鏈接:Dff - HDLBits 題目鏈接:Dff8 - HDLBits 題目鏈接:Dff8r - HDLBits 題目鏈接:Dff8p - HDLBits 題目鏈接:Dff8ar - HDLBits 題目鏈接:Dff16e - HDLBits 題目鏈接:

    2024年01月19日
    瀏覽(19)
  • 神經(jīng)網(wǎng)絡的參數(shù)量(Params)和計算量(FLOPs)

    神經(jīng)網(wǎng)絡的參數(shù)量(Params)和計算量(FLOPs)

    參數(shù)量(Params) 參數(shù)量是指模型訓練中需要訓練的參數(shù)總數(shù)。用來衡量模型的大小(計算空間復雜度)。 計算量(FLOPs) 浮點運算次數(shù),理解為計算量(計算時間復雜度),可以用來衡量算法的復雜度,常用做神經(jīng)網(wǎng)絡模型速度的間接衡量標準(雖然最近已經(jīng)有文章證明靠FLOPs間接標

    2023年04月16日
    瀏覽(15)
  • 使用PyTorch構建神經(jīng)網(wǎng)絡,并使用thop計算參數(shù)和FLOPs

    使用PyTorch構建神經(jīng)網(wǎng)絡,并使用thop計算參數(shù)和FLOPs

    FLOPs和FLOPS區(qū)別 FLOPs(floating point operations)是指浮點運算次數(shù),通常用來評估一個計算機算法或者模型的計算復雜度。在機器學習中,F(xiàn)LOPs通常用來衡量神經(jīng)網(wǎng)絡的計算復雜度,因為神經(jīng)網(wǎng)絡的計算主要由矩陣乘法和卷積操作組成,而這些操作都可以轉化為浮點運算次數(shù)的形式

    2024年02月03日
    瀏覽(26)
  • PostgreSQL不使用擴展,生成隨機int8值,生成均勻分布的隨機int8值

    在PostgreSQL中,可以使用 pgcrypto 擴展提供的函數(shù) gen_random_uuid() 生成隨機的UUID(Universally Unique Identifier),其中包含8字節(jié)隨機整數(shù)(int8值),如下所示: 上述SQL語句使用 gen_random_uuid() 函數(shù)生成隨機UUID,并將其轉換為字符串類型。然后,使用 substring() 函數(shù)從字符串中提取前

    2024年02月09日
    瀏覽(83)
  • 關于Yolov7-tiny模型瘦身(param、FLOPs)碎碎念

    關于Yolov7-tiny模型瘦身(param、FLOPs)碎碎念

    優(yōu)于模型落地需要,yolov7-tiny版本的參數(shù)量(Param)為6.2M,F(xiàn)LOPs在輸入為320*320下為3.46G,想著還能不能再進行減少這兩者或其中之一(精度方面還未做效果驗證)。 于是翻遍了github,沒有關于v7的剪枝方法,替換backbone也大部分是基于yolov5s的,眼花繚亂中看到y(tǒng)olov7的github官方作者的

    2024年02月05日
    瀏覽(28)
  • 【YOLOv5-6.x】模型參數(shù)量param及計算量FLOPs解析

    評價一個用深度學習框架搭建的神經(jīng)網(wǎng)絡模型,除了精確度(比如目標檢測中常用的map)指標之外,模型復雜度也必須要考慮,通常用正向推理的計算量(FLOPs)和參數(shù)個數(shù)(Parameters)來描述模型的復雜度。 ? 參數(shù)量 有參數(shù)的層主要包括: 卷積層 全連接層 BN層 Embedding層 少數(shù)激活

    2024年02月04日
    瀏覽(31)
  • 【HDLBits 刷題 6】Circuits(2)Sequential Logic---Latches and Filp Flops

    【HDLBits 刷題 6】Circuits(2)Sequential Logic---Latches and Filp Flops

    目錄 ? 寫在前面 Latches and Filp Flops Dff Dff8 Dff8r Dff8p Dff8ar Dff16e D Latch DFF1 DFF2 DFF gate Mux and DFF1 Mux and DFF2 DFFs and gates creat circuit Edgedetect Edgedetect2 Edgecapture Dualedge 總結 ? 本篇博客對 Circuits?部分的組合邏輯前兩節(jié)做答案和部分解析,一些比較簡單的題目就直接給出答案,有些難度

    2024年02月03日
    瀏覽(44)

覺得文章有用就打賞一下文章作者

支付寶掃一掃打賞

博客贊助

微信掃一掃打賞

請作者喝杯咖啡吧~博客贊助

支付寶掃一掃領取紅包,優(yōu)惠每天領

二維碼1

領取紅包

二維碼2

領紅包