👉 歡迎加入T客邦telegram ( https://t.me/TechbangNEWS )
支援Bfloat16強化AI效能
為了提升資料中心、網路、智慧邊緣運算環境中,AI和分析工作負載的開發與執行的效率,Intel將Bfloat16資料(Brain Floating Point)格式納入第3代Xeon可擴充處理器(Scalable Processors)支援,成為業界首款內建支援bfloat16的主流伺服器處理器,讓通用型處理器也能更全面支援AI訓練與推論,以滿足圖像分類、推薦引擎、語音辨識和語言建模等應用的需求。
Bfloat16的優先在於在多數神經網路運中,能在使用一半位元的情況下提供與FP32(單精度浮點數)一樣的準確度,代表著可以減少一半記憶體用量、倍增資料吞吐量,而且Intel也將Bfloat16整合至處理器的Intel DL Boost功能中,並支援TensorFlow、Pytorch等深度學習架構,以及對OpenVINO工具組和ONNX執行環境最佳化,只需微幅調整軟體,即可達到相同的模型精準度,並可加速處理器的AI訓練和推論效能。
單槽4.5TB的海量記憶體
除了處理器之外,Intel也為第3代Xeon可擴充平台推出了搭配的Optane Persistent Memory 200系列記憶體,它有著介於DRAM與固態硬碟之間的特性,以及高容量密度、資料不會因斷電而消失等特色,可在單一插槽提供高達4.5TB的容量,以滿足記憶體內建資料庫、高密度虛擬化、分析和高效能運算等應用需求。
在儲存媒體部分,Intel出了SSD D7-P5500和P5600等2款固態硬碟,採用TLC 3D NAND技術與全新的低延遲PCIe 4.0控制器,以滿足AI和分析工作負載的高度I/O需求,提高IT效率和資料安全性的進階功能。
此外Intel也發表了首款AI最佳化的Stratix10 NX FPGA,它針對高頻寬、低延遲AI加速進行最佳化,並整合的高頻寬記憶體(HBM)、高效能網路、張量處理模組(Tensor Block),以及AI最佳化算法模組(Arithmetic Block,其中包含通常用於AI模型算法的低精度乘法器的密集陣列),為使用者提供客製化、可重新設定和可擴充的AI加速功能,適用於自然語言處理和詐欺檢測之類的運算需求。
在這同時Intel也延續OneAPI跨架構開發環境,以簡化開發橫跨處理器、繪圖處理器(GPU)、FPGA不同架構運算元件的程式開發,並確保程式碼能於現在與未來的英特爾硬體環境中繼續使用。
Intel副總裁暨Xeon和記憶體事業部總經理Lisa Spelman表示:「快速部署AI和資料分析的能力對於現今的企業極為重要。英特爾將繼續致力於提升處理器內建的AI加速和軟體最佳化功能,並為全球資料中心和邊緣解決方案提供支援,同時也提供無與倫比的晶片基礎,以從資料當中獲得更多寶貴的洞察資訊。」