Nvidia今年推出新世代的資料中心等級GPU,采用最新Ampere架構(gòu),當(dāng)中包含了第三代Tensor Core與NVLink技術(shù)。
2018年3月開始,Nvidia推出GPU內(nèi)存多達(dá)32GB的Tesla V100、可支持16個GPU互連的交織網(wǎng)路NVSwitch,以及運(yùn)算效能更強(qiáng)、體型也更為龐大的深度學(xué)習(xí)整合應(yīng)用設(shè)備DGX-2。
同年年底,他們發(fā)表了基于Turing架構(gòu)、鎖定云端服務(wù)環(huán)境使用的GPU,名為T4。又于去年5月,將搭配這張GPU加速卡的EGX伺服器,與他們的電腦Jetson Nano、Drive AGX Pegasus,并列為EGX平臺,主攻邊緣運(yùn)算。
2020年5月,該公司終于推出新世代的資料中心等級GPU,名為A100,采用了他們最新發(fā)展的Ampere架構(gòu)。相較于Volta架構(gòu)GPU的單精度浮點(diǎn)運(yùn)算(FP32),改用A100新支持的TensorFloat-32(TF32)計算模式,來進(jìn)行人工智能與高效能運(yùn)算的處理作業(yè),效能為156 TFLOPS,速度可提升至10倍;若結(jié)合TF32與結(jié)構(gòu)化的稀疏性處理(Sparsity),A100的效能為312 TFLOPS,增長幅度可達(dá)到20倍之高。