行業(yè)領(lǐng)導者打破藩籬,使開發(fā)人員能夠輕松地在 Windows 11 上訓練并部署先進的 AI 模型,并在配備 RTX 的 PC 和工作站上提供節(jié)能的推理。
生成式 AI,以 ChatGPT 等大型語言模型(LLM)應用、Stable Diffusion 和 Adobe Firefly 等圖片生成器,以及 NVIDIA DLSS 3 Frame Generation(DLSS 3 幀生成技術(shù))等游戲渲染技術(shù)為代表,正在迅速為生產(chǎn)力、內(nèi)容創(chuàng)作、游戲等開創(chuàng)計算的新時代。
在微軟Build 開發(fā)者大會上,NVIDIA 和微軟展示了一系列搭載 NVIDIA RTX GPU 的 Windows 11 PC 和工作站的先進技術(shù),旨在滿足生成式 AI 的需求。
超過 400 款應用和游戲已采用 AI 技術(shù),通過 RTX GPU 上的專用處理器 Tensor Core 進行加速。今天發(fā)布的內(nèi)容,包括用于在 Windows PC 上開發(fā) AI 的工具、優(yōu)化和部署 AI 的框架,以及驅(qū)動性能和能效提升,將使開發(fā)人員能夠以生成式 AI 為核心來構(gòu)建下一代 Windows 應用。
微軟 Windows 芯片和系統(tǒng)集成副總裁 Pavan Davuluri 表示:“ 未來幾年,AI 將成為 Windows 用戶創(chuàng)新的最大驅(qū)動力。通過與 NVIDIA 在硬件和軟件優(yōu)化方面進行合作,我們?yōu)殚_發(fā)人員提供了一種革命性、高性能并易于部署的體驗?!?/p>
利用 Linux 的 Windows 子系統(tǒng)開發(fā)模型
AI 開發(fā)通常是在 Linux 上進行的,需要開發(fā)人員啟動雙系統(tǒng), 或是使用多臺 PC 在 AI 開發(fā)操作系統(tǒng)中進行工作,同時仍然可以獲得 Windows 生態(tài)系統(tǒng)的深度和廣度。
過去的幾年里,微軟一直致力于讓 Linux 直接在 Windows 操作系統(tǒng)中運行,也就是適用于 Linux 的 Windows 子系統(tǒng)(WSL)。NVIDIA 一直與微軟密切合作,為 WSL 內(nèi)部的整個 NVIDIA AI 軟件堆棧提供 GPU 加速和支持。開發(fā)人員現(xiàn)在可以使用 Windows PC 來滿足所有本地 AI 開發(fā)需求,并支持 GPU 加速的 WSL 深度學習框架。
NVIDIA RTX GPU 在臺式機工作站中提供高達 48GB 的顯存,開發(fā)人員現(xiàn)在可以在 Windows 上處理以前只能在服務器上處理的模型。大顯存還提高了 AI 模型本地微調(diào)的性能和質(zhì)量,使設計師能夠根據(jù)自己的風格或內(nèi)容進行定制。NVIDIA 數(shù)據(jù)中心 GPU 也運行相同的 NVIDIA AI 軟件堆棧,開發(fā)人員因此可以輕松將模型推送到微軟 Azure 云上進行大規(guī)模訓練。
快速優(yōu)化并部署模型
有了經(jīng)過訓練的模型,開發(fā)人員需要針對目標設備來優(yōu)化和部署 AI。
微軟發(fā)布了 Microsoft Olive 工具鏈,用于優(yōu)化 PyTorch 模型并將其轉(zhuǎn)換到 ONNX,使開發(fā)人員能夠自動利用 RTX Tensor Core 等 GPU 硬件加速。開發(fā)人員可以通過 Olive 和 ONNX 優(yōu)化模型,并將 Tensor Core 加速的模型部署到 PC 或云端。微軟將繼續(xù)投資,使 PyTorch 及相關(guān)工具和框架與 WSL 無縫協(xié)作,從而提供最佳的 AI 模型開發(fā)體驗。
提升 AI 的性能和能效
一旦部署,生成式 AI 模型需要令人難以置信的推理性能。RTX Tensor Core 為 AI 推理提供高達 1,400 的 Tensor TFLOPS(萬億次浮點運算)。過去一年,NVIDIA 一直致力于提升 DirectML 的性能,以便充分利用 RTX 硬件的優(yōu)勢。
5 月 24 日,我們將在 532.03 版驅(qū)動中發(fā)布最新的優(yōu)化,與 Olive 優(yōu)化的模型相結(jié)合,大幅提升 AI 性能。使用 Olive 優(yōu)化版 Stable Diffusion 文本-圖像轉(zhuǎn)換器以及受歡迎的 Automatic1111 發(fā)行版,新驅(qū)動程序的性能提高了 2 倍以上。
使用 Automatic1111 和文本-圖像轉(zhuǎn)換功能,在 GeForce RTX 4090 上測試 Stable Diffusion 的性能。
隨著 AI 即將進入幾乎所有 Windows 應用,提供節(jié)能的推理性能變得至關(guān)重要——尤其對于筆記本電腦來說。NVIDIA 即將推出新的 Max-Q 低功耗推理,用于 RTX GPU 上的純 AI 工作負載。它在優(yōu)化 Tensor Core 性能的同時盡可能地降低 GPU 的功耗,延長電池續(xù)航時間,并使系統(tǒng)保持出色的散熱和降噪表現(xiàn)。根據(jù)負載需要,GPU 可以動態(tài)地擴展,以提供最高的 AI 性能。
現(xiàn)在就加入 PC 的 AI 變革
頂級軟件開發(fā)商,如 Adobe、DxO、ON1 和 Topaz,已經(jīng)將 NVIDIA AI 技術(shù)與 400 多款被 RTX Tensor Core 優(yōu)化的 Windows 應用和游戲結(jié)合起來。
“AI、機器學習和深度學習已經(jīng)用于所有 Adobe 應用,并推動創(chuàng)意的未來發(fā)展。我們與 NVIDIA 合作,不斷優(yōu)化 AI 模型的性能,在 RTX GPU 上為 Windows 用戶提供盡可能最佳的體驗?!?——Adobe 數(shù)字媒體首席技術(shù)官 Ely Greenfield
“NVIDIA 正幫助我們在 RTX GPU 上優(yōu)化 WinML 模型的性能,這將加速 DxO DeepPRIME 中的 AI,并更快更好地去噪、去馬賽克?!?——DxO 高級工程副總裁 Renaud Capolunghi
“與 NVIDIA 和微軟合作,在 RTX GPU 上加速我們在 Windows 中運行的 AI 模型,這讓用戶受益匪淺。我們已經(jīng)看到 AI 照片編輯軟件套件的性能提升了 1.5 倍。” ——ON1 產(chǎn)品副總裁 Dan Harlacher
“我們與 NVIDIA 的廣泛合作改進了照片和視頻編輯應用套件。借助 RTX GPU,AI 性能得到了大幅提升,增強了用戶在 Windows PC 上的體驗?!?——Topaz Labs AI 引擎開發(fā)負責人 Suraj Raghuraman
NVIDIA 和微軟正在為開發(fā)人員提供一些資源,以便在 Windows PC 上測試主要的生成式 AI 模型。Hugging Face 上提供了一個 Olive 優(yōu)化版的 Dolly 2.0 大語言模型。此外,用于對話式 AI 的 NVIDIA NeMo 大型語言模型的 PC 優(yōu)化版也即將在 Hugging Face 上線。
開發(fā)人員還可以通過 NVIDIA 開發(fā)者網(wǎng)站上的 AI 加速應用頁面,學習如何端到端地優(yōu)化應用程序以充分利用 GPU 加速。
通過微軟 Windows 平臺和 NVIDIA 動態(tài) AI 硬件和軟件堆棧背后的互補技術(shù),開發(fā)人員將能夠在 Windows 11 上快速、輕松地開發(fā)并部署生成式 AI。
微軟 Build開發(fā)者大會將一直持續(xù)到 5 月 25 日(星期四)。