近期,第五代英特爾?至強?可擴展處理器通過了中國電子技術(shù)標準化研究院組織的人工智能服務器系統(tǒng)性能測試(AISBench)。英特爾成為首批通過AISBench大語言模型(LLM)推理性能測試的企業(yè)。
中國電子技術(shù)標準化研究院賽西實驗室依據(jù)國家標準《人工智能服務器系統(tǒng)性能測試規(guī)范》(征求意見稿)相關要求,使用AISBench 2.0測試工具,完成了第五代英特爾至強可擴展處理器的AI大模型推理性能和精度測試。測試中,第五代英特爾至強在ChatGLM V2-6B(60億參數(shù))以及 Llama2-13B(130億參數(shù))兩個模型上均展現(xiàn)出卓越推理性能,能夠滿足輕量級大語言模型的實時推理要求。
測試結(jié)果:此次單機性能測試中,在滿足人類正常閱讀速度要求(生成延遲小于100毫秒)的情況下,在封閉測試場景中構(gòu)造數(shù)據(jù)集,基于第五代英特爾至強的服務器可實現(xiàn):
- 在60億參數(shù)的ChatGLM V2模型通用推理中,當輸入輸出序列為256時可達每秒 2493 token的性能,當輸入輸出序列為2048時可達每秒926 token。
- 在130億參數(shù)的Llama2模型通用推理中,當輸入輸出為256時可達每秒513 token,當輸入輸出序列為2048時可達每秒 132 token1。
作為通用處理器,第五代英特爾至強在人工智能、網(wǎng)絡、存儲、數(shù)據(jù)庫等關鍵工作負載均能提供出色性能。AISBench 2.0的測試結(jié)果驗證了英特爾至強在運行輕量級大語言模型時展現(xiàn)出的優(yōu)異推理性能,使得客戶可以使用基于至強的服務器,構(gòu)建一個通用AI系統(tǒng)進行數(shù)據(jù)預處理、模型推理和部署,從而獲得兼具AI性能、效率、準確性和可擴展性的組合。這也彰顯了英特爾至強可以為企業(yè)提供“開箱即用”的功能,即可以在通用系統(tǒng)上部署一部分AI工作負載,從而為客戶帶來更佳的總體擁有成本(TCO)優(yōu)勢。
軟硬結(jié)合,至強展現(xiàn)AI優(yōu)勢
英特爾至強的內(nèi)置AI加速器使其成為在通用處理器上運行部分AI工作負載的理想解決方案,不僅如此,英特爾還配備了經(jīng)過優(yōu)化的、易于編程的開放軟件,可降低客戶和生態(tài)伙伴在數(shù)據(jù)中心部署從云到智能邊緣各種基于AI的解決方案的門檻。
- 第五代英特爾至強可擴展處理器充分發(fā)揮了系統(tǒng)級優(yōu)勢(包括緩存、內(nèi)存等),因此推理速度實現(xiàn)了大幅提升。
- 其內(nèi)置的AI加速器——英特爾?高級矩陣擴展(AMX),通過提供專用的矩陣運算加速模塊(TMUL),以及支持INT8和BF16這類低精度數(shù)據(jù)類型,可實現(xiàn)對計算資源的充分利用,從而大幅提升運算效率。
- xFasterTransformer(簡稱xFT)是英特爾提供的在CPU平臺上部署大語言模型的深度優(yōu)化開放解決方案,通過C++和Python兩種API接口,更易于用戶使用和將其集成到自有業(yè)務框架中。