從機器學習到深度學習再到生成式AI,人工智能技術在飛速進化,并且向“AI無處不在”的目標繼續(xù)進發(fā)。
日前,英特爾中國軟件技術合作事業(yè)部總經(jīng)理唐炯在一場企業(yè)AI開放軟件生態(tài)媒體會上表示:“企業(yè)在部署AI解決方案時面臨技術堆棧復雜性和跨硬件平臺效率差異的挑戰(zhàn),沒有單一廠商能提供全面的AI解決方案,而是需要多方合作。英特爾作為行業(yè)先行者,希望推動解決方案的解構,以便實現(xiàn)靈活部署并減少手動編碼,同時保護數(shù)據(jù)。這種解構策略旨在使生態(tài)合作伙伴專注于自身優(yōu)勢,通過合作提供定制化、高效的AI解決方案,從而促進AI在企業(yè)中的實際應用?!?/p>
三大關鍵,推動AI無處不在
如何實現(xiàn)AI的廣泛應用?唐炯認為當前需要關注三個核心方面:
首先是加速創(chuàng)新。盡管生成式AI等技術取得了顯著進展,但這些創(chuàng)新尚未普及到每個用戶或企業(yè)。為了開發(fā)出真正不可或缺的“AI殺手級應用”,必須加快創(chuàng)新步伐,激勵開發(fā)者投身于AI領域的開發(fā)和創(chuàng)新活動。
其次要使AI價值最大化。AI的互動不僅限于手機和PC等設備,更重要的是要為個人和企業(yè)帶來實際價值。這意味著需要探索如何最大化AI的價值,包括在云、邊緣和端側的部署,以及如何將最合適的工作負載匹配到最合適的平臺上,從而優(yōu)化成本結構。
第三要實現(xiàn)靈活部署。AI技術覆蓋了從算力基礎到操作系統(tǒng)、數(shù)據(jù)庫、大數(shù)據(jù),再到應用的整個技術堆棧。為了實現(xiàn)不同軟件模塊在不同設備和不同硬件架構(xPU)上的靈活部署,需要對AI解決方案進行解構,以便減少手動編碼需求,并確保數(shù)據(jù)保護。
為了推動上述層面的發(fā)展,英特爾強調一個關鍵詞“開放“,給圍繞軟件、圍繞應用、面向個人和企業(yè)的開發(fā)者提供一個更加開放的資源平臺,如PyTorch、TensorFlow和Python等,以支持開發(fā)者進行應用創(chuàng)新。
由于這些AI基礎架構變得越來越多樣化,也意味著在算力層面需要進行很多兼容性優(yōu)化。英特爾提供了oneAPI、OpenVINO等開源工具,以提高在異構底層平臺上的兼容性和一次性編程的便利性。
面對AI推理當前還存在的一些“幻覺“問題,唐炯認為提高可靠性非常關鍵,一方面要確保數(shù)據(jù)的可靠性和隱私性;另一方面要提升推理的準確度。當前,英特爾正在與合作伙伴共同為客戶提供更多的POC機會,幫助他們降低成本,并且能夠讓更多開發(fā)者的創(chuàng)新能夠在集群化、可靠的測試平臺上得到驗證和優(yōu)化。
AI開源生態(tài)為什么勢在必行?
唐炯在采訪中多次強調,對開放AI生態(tài)系統(tǒng)的長期投入、以及對合作伙伴的支持至關重要,只有這樣才能為用戶提供更好的、更適合的AI解決方案。
為此,英特爾在全球范圍內(nèi)打造AI開源社區(qū) “Open Platform for Enterprise AI”(OPEA),旨在促進更多的廠商共同開發(fā)企業(yè)級AI應用,共享各方的代碼和模塊,最終形成開放、透明的平臺,讓完整的企業(yè)級AI落地應用。
回顧IT產(chǎn)業(yè)多年的發(fā)展,開源開放確實已經(jīng)被證明是加速技術創(chuàng)新和生態(tài)發(fā)展的有效手段,那么,英特爾當前高度重視AI開源社區(qū)的根本原因是什么?
唐炯認為主要是因為AI時代與云計算時代有著本質的區(qū)別:在云計算時代,通過任務調度和資源的多用戶共享,實現(xiàn)了規(guī)模經(jīng)濟和成本效益,使得服務商能夠通過細分CPU使用時間來降低成本并提高利潤。然而,AI時代的計算需求改變了這一模式,因為AI算力通常是持續(xù)運行的,沒有空閑時間,這導致AI的成本結構與傳統(tǒng)云計算截然不同。
為了在AI時代實現(xiàn)價值最大化,就需要將基礎架構與AI應用緊密結合,并考慮在云、邊緣和端側的部署策略。此外,AI時代對硬件環(huán)境和算力利用的新要求,必須要考慮到異構計算環(huán)境中的負載協(xié)調、底層與應用層之間的高效接口匹配,以及數(shù)據(jù)安全和可靠性的重要性。同時,考慮到應用的靈活性,還需要能夠輕松地“熱插拔”不同的大模型以適應不同的需求,減少因模型或數(shù)據(jù)庫變更而需要修改整個應用或代碼的情況。
也正是在這些因素的推動下,需要打造覆蓋算力、基礎設施、軟件和應用等多個層面解決方案提供商的AI生態(tài)系統(tǒng)。這些提供商在專業(yè)領域各有優(yōu)勢,英特爾希望通過AI開源生態(tài)的不斷完善,推動各個合作伙伴可以專注于自己的強項,實現(xiàn)優(yōu)勢互補,從而有效落地AI應用。
生態(tài)伙伴熱議AI規(guī)?;涞厍熬?/h2>
在當天的媒體會上,東方國信副總裁兼CTO查禮、海鑫智圣總經(jīng)理孟凡軍、星環(huán)科技生態(tài)合作部總經(jīng)理張雷,分別介紹了與英特爾的合作,以及如何持續(xù)釋放各自領域的價值,最終加速AI在更多領域的落地。
查禮著重強調了生態(tài)的重要性,他表示,從云計算時期所注重的軟硬件協(xié)同,發(fā)展到如今的生態(tài)協(xié)同,要考慮的問題越來越復雜,比如模型的適配,或是在不調整硬件的情況下,通過軟件提升模型微調和推理的能力等等。
他認為應用構建的變革也是一個重要的推動因素。從傳統(tǒng)的LAMP技術體系,轉向需要行業(yè)模型、知識庫和工具鏈(如RAG和Agent)的現(xiàn)代構建方式,OPEA恰好涵蓋了這些變革。查禮補充,這些變革為企業(yè)IT系統(tǒng)帶來了由AI驅動和賦能的新機遇,他們希望能夠貢獻一份力量,共同推進國內(nèi)企業(yè)級AI系統(tǒng)的發(fā)展。
孟凡軍強調了與英特爾在云端AI處理和邊緣端部署方面的合作,特別是面臨云、邊、端精度統(tǒng)一的挑戰(zhàn)時,他認為可以通過與底層芯片在云、邊、端的緊密合作和底層擬合,實現(xiàn)數(shù)據(jù)集和精度的統(tǒng)一。
“大模型作為智能時代的先驅,其主要作用是提升人類處理非標準化數(shù)據(jù)的能力”,孟凡軍談到。由于企業(yè)決策者對AI的理解程度有所不同,因此更需要像OPEA這樣的框架,幫助企業(yè)理解AI價值、并推動AI的規(guī)模化應用。
張雷則從近期《黑神話:悟空》帶來的設備升級潮談起,指出硬件銷售和應用普及的每個階段都有其特定的“抓手”。 他認為,對于AI應用廠商來說,開發(fā)用戶易于使用的AI產(chǎn)品是實現(xiàn)規(guī)?;年P鍵。
他強調,AI發(fā)展與數(shù)據(jù)密不可分,雖然許多大模型依賴公共知識和數(shù)據(jù),但要在企業(yè)端實現(xiàn)大數(shù)據(jù)的真正落地,必須結合企業(yè)的私有化數(shù)據(jù)。星環(huán)科技與英特爾一直在企業(yè)端合作處理大模型和私有化數(shù)據(jù),未來還將繼續(xù)深化這一合作。