幫助智能邊緣設備更可靠、更高效地連接、感知和推斷數(shù)據(jù)的全球領先半導體產(chǎn)品和軟件IP授權許可廠商Ceva公司(納斯達克股票代碼:CEVA)宣布Ceva-NeuPro-Nano NPU在近期于中國臺北舉辦的著名亞洲金選獎(EE Awards Asia)中榮獲年度最佳IP/處理器產(chǎn)品獎。
獲獎的 Ceva-NeuPro-Nano NPU 可為半導體企業(yè)和OEM廠商提供所需的功率、性能和成本效率,以便將嵌入式人工智能模型集成到其用于消費、工業(yè)和通用 AIoT 產(chǎn)品的SoC 中。嵌入式人工智能模型是直接集成到硬件設備中,并在設備上運行的人工智能算法和系統(tǒng),無需依賴云端處理。Ceva-NeuPro-Nano NPU解決了嵌入式人工智能方面的性能難題,有望實現(xiàn)無處不在并且經(jīng)濟實用的人工智能,廣泛應用于消費和工業(yè)物聯(lián)網(wǎng)應用中的語音、視覺、預測性維護和健康傳感等各種用例。
Ceva首席戰(zhàn)略官Iri Trashanski表示:“贏得亞洲金選獎之年度最佳IP/處理器獎,證明了NeuPro-Nano NPU具有創(chuàng)新性和卓越性,它為功耗受限的設備帶來了經(jīng)濟有效的人工智能處理技術。連接、感知和推斷是塑造更智能、更高效之未來的三大關鍵支柱,我們很自豪能夠憑借無與倫比的 IP 產(chǎn)品組合在這三種應用案例中一馬當先。”
Ceva-NeuPro-Nano 嵌入式人工智能 NPU 架構(gòu)完全可編程,可高效執(zhí)行神經(jīng)網(wǎng)絡、特征提取、控制代碼和 DSP 代碼,并支持最先進的機器學習數(shù)據(jù)類型和運算符,包括原生變換器計算、稀疏性加速和快速量化。與現(xiàn)有的采用基于 AI 加速器架構(gòu)的 CPU 或 DSP 組合的嵌入式 AI 工作負載處理器解決方案相比,這種經(jīng)過優(yōu)化的自給自足單核架構(gòu)使 Ceva-NeuPro-Nano NPU 能夠提供更高的能效、更小的硅片占用空間以及優(yōu)秀性能。此外,Ceva-NetSqueeze AI 壓縮技術可直接處理壓縮模型權重,而無需中間的解壓縮階段,使得Ceva-NeuPro-Nano NPU的內(nèi)存占用減少了80%,解決了目前阻礙AIoT處理器廣泛應用的關鍵瓶頸問題。
這款NPU 隨附完整的人工智能 SDK Ceva-NeuPro Studio,這是統(tǒng)一的人工智能堆棧,是適用于整個Ceva-NeuPro NPU 系列的通用工具,支持開放式人工智能框架,包括微控制器 LiteRT(前身為微控制器 TensorFlow Lite)和 microTVM。
亞洲金選獎旨在表彰亞洲電子行業(yè)中備受推崇的最佳產(chǎn)品、企業(yè)和個人。來自全球的專業(yè)技術人士組成評審團,評選出入圍榜單后,再由中國臺灣和亞洲的《EE Times》和《EDN》專業(yè)媒體讀者群投票選出優(yōu)勝者。
供貨
Ceva即日起開始提供Ceva-NeuPro-Nano NPU授權許可。