魯迅先生1923年在北師大發(fā)表了著名的演講《娜拉走后怎樣》,其中的提問與思考方式振聾發(fā)聵,直到今天也依舊有效。面對很多產(chǎn)業(yè)現(xiàn)象、技術(shù)趨勢,我們也不妨多問幾個“之后怎樣”。
比如說,自ChatGPT爆火之后,中國各個互聯(lián)網(wǎng)、科技公司競相推出了自己的大語言模型及相關(guān)應(yīng)用。其實,關(guān)于中國能否有ChatGPT我們從未擔(dān)心過,而問題的關(guān)鍵在于“之后怎樣”。
層出不窮的大語言模型,讓人眼花繚亂。但如此多的大模型,差異化和競爭力從何而來?能否順利、低成本實現(xiàn)產(chǎn)業(yè)落地?能否有效支持模型的快速迭代?
發(fā)布大模型并不是終點,而是一場新長跑的起點。如果不能有效回答這些問題,那么大模型也最終會像其他技術(shù)風(fēng)口一樣,倏忽而來,倏忽而去。
慢慢地,“大模型之后怎樣”這個問題,也開始有了答案。4月23日,我們看到一份百度文心一言內(nèi)部流出的會議紀(jì)要。其中顯示,從3月開始,文心一言啟動邀測后的一個多月內(nèi),其模型已經(jīng)迭代了4次,最近一次帶來的推理效果提升了達到123%。
到底是什么支持文心一言完成了這種超越常規(guī)的迭代速度?
這個“秘密”或許正是中國大模型走向未來所需要的動力,也是“大模型之后怎樣”的某種答案。
內(nèi)部會議紀(jì)要透露出文心一言的奔跑速度
根據(jù)內(nèi)部紀(jì)要內(nèi)容顯示,文心一言在開啟邀測后用戶數(shù)與同時在線人數(shù)都極速增長,面臨這種情況,文心一言需要及時獲得更快的響應(yīng)速度。我們知道,機器學(xué)習(xí)類模型的應(yīng)用邏輯包含數(shù)據(jù)準(zhǔn)備—模型訓(xùn)練—模型推理幾個步驟。文心一言面臨的響應(yīng)挑戰(zhàn),就是需要及時強化模型的推理能力。
為了實現(xiàn)這個目標(biāo),百度對文心一言進行了模型層與框架層的聯(lián)合優(yōu)化,從而在一個月內(nèi)迭代了4次,實現(xiàn)了模型推理能力的極大提升。
是什么讓文心一言獲得了這樣的奔跑速度?這就要提到百度飛槳“提前”做好的準(zhǔn)備。作為深度學(xué)習(xí)開發(fā)平臺,飛槳可以支持AI模型從訓(xùn)練到推理的全流程落地。其中,飛槳模型推理服務(wù)就可以有效支持大模型升級,這一服務(wù)在4月19日剛剛再次迭代,已迭代至3.5版本,它的特點是在業(yè)內(nèi)首創(chuàng)了支持動態(tài)插入的分布式推理引擎,從而可以更有效完成龐大數(shù)據(jù)規(guī)模的AI模型進行推理部署。
至此我們可以從這份內(nèi)部紀(jì)要中知道,文心一言能夠快速持續(xù)迭代,并且低成本落地應(yīng)用的關(guān)鍵,就藏在這里——飛槳與文心一言聯(lián)合優(yōu)化。
從結(jié)果上看,聯(lián)合優(yōu)化帶來的價值非常顯著。飛槳幫助文心一言實現(xiàn)了模型推理效率提升10倍,模型推理性能提升50%,模型算力利用率提升1倍。其中,模型推理效率提升10倍,意味著推理成本降低為原來1/10,或者可以為10倍數(shù)量的用戶提供服務(wù);模型推理性能提升50%,意味著飛槳可以幫助文心一言工藝更精密,模型的學(xué)習(xí)效果與魯棒性更強;模型算力利用率提升1倍,是由于飛槳向下兼容到芯片,實現(xiàn)全棧聯(lián)合優(yōu)化,從而可以極大降低文心一言的算力開銷。
從這幾個方向可以看出,飛槳為文心一言帶來的價值,是持續(xù)性且多方面的,其中最重要的是,飛槳讓文心一言可以持續(xù)性、低成本向前奔跑,不斷進化。
這也恰好解釋了這個問題:大模型,路在何方?
飛槳讓大模型節(jié)奏飛起的AI引擎
在ChatGPT全球化爆火,各家廠商、投資人,都在不遺余力地擠上大模型賽道。這種情況當(dāng)然可以理解,但也必須看到,這條賽道不僅門檻高、入局難,在入局之后構(gòu)建持續(xù)競爭力同樣很難。
大模型意味著龐大的算力開支、數(shù)據(jù)開支,以及更為恐怖的模型迭代成本。入局大模型之后,必須根據(jù)用戶反饋快速迭代,高效率升級,否則一不小心就會掉隊,在第一輪風(fēng)口過去后陷入行業(yè)洗牌,緊跟行業(yè)趨勢,不斷推動模型升級,又會面臨巨大的工作量與模型推理成本。
這個兩難選擇并不遙遠,很快就會成為困擾大量新玩家的頭疼問題。
而多年部署AI基礎(chǔ)設(shè)施與基礎(chǔ)技術(shù)的百度,其優(yōu)勢就在這時顯示了出來。飛槳與文心一言的聯(lián)合優(yōu)化,讓文心一言在訓(xùn)練和推理過程中效率大幅提升,實現(xiàn)了真正的人家起跑,我已經(jīng)幾輪加速,節(jié)奏快到飛起。
大模型與AI開發(fā)平臺,是相輔相成、互為表里的關(guān)系。比如有分析人士解讀認為,“大模型就仿佛汽車的發(fā)動機,光賬面上的動力強,參數(shù)大是沒有用的,要壓榨出發(fā)動機瞬時最大爆發(fā)力(QPS)以及最優(yōu)的性能表現(xiàn)。深度學(xué)習(xí)框架就像是生產(chǎn)發(fā)動機和變速箱的,可以讓發(fā)動機整體部件組合更精密、動力更強。自研產(chǎn)品彼此適配度更高,協(xié)同會更高效,這可能是效率提升的最根本原因?!币劳酗L(fēng)口入局大模型,終歸會有一種空中樓閣的隱憂,至少難以將全面的技術(shù)棧掌握在自己手中,實現(xiàn)更高效、可控的模型升級。
由此可見,大模型走向成功,除了算力、數(shù)據(jù)的基礎(chǔ)之外,深度學(xué)習(xí)框架同樣扮演著關(guān)鍵角色。面對紛繁而出的大模型,百度文心系列大模型的差異化優(yōu)勢,也就在百度十年搭建的飛槳平臺中展露了出來。
而當(dāng)我們把大模型與飛槳的聯(lián)動關(guān)系,放到科技自立自強的戰(zhàn)略高度來審視。又會發(fā)現(xiàn)一些別樣的答案:飛槳既是百度的AI護城河,也是中國大模型的動力引擎。
中國AI勝負系于工程化
最近,我們能看到很多大語言模型的發(fā)布會,差不多每一家都會說,我們目前確實不如ChatGPT,以后繼續(xù)努力。
那么問題來了,怎么努力?
事實上,努力不是說說就行了,而是要找到方式和方法。ChatGPT代表的算法優(yōu)勢、人才優(yōu)勢、算力優(yōu)勢都是短期很難抹平的,至少看不到可以快速超車的戰(zhàn)略空間。中國AI想要走通大模型這條路,就只能揚長避短,而中國AI的優(yōu)勢在哪呢?從百度流出的內(nèi)部會議紀(jì)要中其實已經(jīng)告訴了我們答案:工程化。
通過飛槳長期堅持的AI工程化路徑的掌握與打磨,我們可以看到百度發(fā)展大模型的獨特優(yōu)勢,同時也可以看到中國AI整體性的戰(zhàn)略機遇。
首先,對于百度內(nèi)部來說,通過飛槳牢牢把控工程化能力,可以提升文心一言的迭代速度,降低算力、人工、數(shù)據(jù)等開銷,從而讓文心一言能夠在同等成本下服務(wù)的用戶更多,適配產(chǎn)品的效率更高。這就像同樣從一處名叫“大模型”的深海油井取得原油,飛槳就像一艘輪船,船速更快,運量還大,而其他人在用帆船運輸。效率意味著成本,成本意味著商業(yè)化可能性,這就是飛槳的價值,也是AI工程化能力的魅力。
從百度向外看,飛槳帶來的工程化能力,意味著文心系列大模型的推理成本更低,繼而導(dǎo)致其在各行業(yè)、各場景中的落地成本更低。這對于文心大模型融入行業(yè),通過產(chǎn)業(yè)智能化產(chǎn)生價值是個重大利好。大模型走向千行百業(yè),是今天每家公司都在喊的口號,但這個過程中,一定不能把模型落地成本全部轉(zhuǎn)嫁給行業(yè)用戶。消解這一成本的關(guān)鍵,也在于飛槳代表的工程化路徑。
最后,當(dāng)大模型已經(jīng)上升為國家戰(zhàn)略,我們必須看到AI框架在科技自立自強進程中扮演的角色。如果事關(guān)國計民生,每天與無數(shù)國人進行問答的大模型,建立在其他國家的框架上,那么其危險系數(shù)可想而知。當(dāng)大模型愈發(fā)重要,關(guān)注并持續(xù)解決深度學(xué)習(xí)框架卡脖子的隱憂就更加重要。
而從另一個角度看,AI框架與AI開發(fā)平臺代表的AI工程化能力,是中國AI技術(shù)最亮眼、最特殊的部分。這一部分下接芯片,上達應(yīng)用,通向千行百業(yè)的AI開發(fā)需求,恰好是AI技術(shù)中的戰(zhàn)略要沖所在。中國AI能否揚長避短,實現(xiàn)超車,極大概率就系于工程化能力的建設(shè)與發(fā)揮,系于AI框架與產(chǎn)業(yè)智能化的連接中。
中國大模型,就是行業(yè)大模型,就是強工程化、強落地性的大模型,只有走通這條路,中國AI才有未來。