3月16日,百度 “文心一言”正式發(fā)布,基于百度智能云同步開(kāi)放預(yù)約測(cè)試。
近段時(shí)間,與文心一言一樣火爆出圈的還有GPT-4,他們的出現(xiàn)意味著新一輪的人工智能變革和挑戰(zhàn)正式打響,云廠商將展開(kāi)了一場(chǎng)與通用智能相關(guān)的產(chǎn)業(yè)競(jìng)賽。
百度公司首席執(zhí)行官李彥宏認(rèn)為,AI對(duì)各行各業(yè)的顛覆性改變才剛剛開(kāi)始。大模型時(shí)代將產(chǎn)生三大產(chǎn)業(yè)機(jī)會(huì),分別是新型云計(jì)算公司、可以進(jìn)行行業(yè)模型精調(diào)的公司、基于大模型底座進(jìn)行應(yīng)用開(kāi)發(fā)的公司。
01、云計(jì)算格局迎新變化,云廠商難解大模型之困
云計(jì)算走過(guò)了發(fā)展的黃金十年。
在過(guò)去的十年里,我國(guó)云計(jì)算產(chǎn)業(yè)年均增速曾超30%,是全球增速最快的市場(chǎng)之一。
所謂市場(chǎng)有多繁榮,競(jìng)爭(zhēng)就有多激烈。在前十年云廠商大都以賣(mài)算力、賣(mài)存儲(chǔ)為主,“集成和總包”是云廠商為了實(shí)現(xiàn)規(guī)?;鲩L(zhǎng)普遍采用的方式。
但從具體實(shí)踐來(lái)看,這種打法不僅沒(méi)有把云計(jì)算變成招財(cái)貓,反倒成了吞金獸。從一定意義上說(shuō),總包集成是一種畸形且不健康的商業(yè)路徑。本質(zhì)上就是什么都做,并且大部分項(xiàng)目有著大量的定制化需求,需要投入大量的人力物力;另外一些項(xiàng)目沒(méi)有含金量,完全是為了刷流水而做。
長(zhǎng)此以往,云廠商需要面對(duì)入不敷出,業(yè)務(wù)很難發(fā)展下去的挑戰(zhàn)。
以阿里云為例,在之前的12年里一直處于虧損狀態(tài),直到2021年才扭轉(zhuǎn)了這一局面,但利潤(rùn)率只有2%。市占率方面,相關(guān)數(shù)據(jù)統(tǒng)計(jì)發(fā)現(xiàn),近兩年阿里云、騰訊云、華為云等頭部云廠商的增長(zhǎng)持續(xù)放緩,就連最早入局云計(jì)算的阿里云的市占率也呈現(xiàn)連年走低趨勢(shì)。
也正是在這時(shí),云廠商認(rèn)識(shí)到了不能再扮演總包集成商的角色,要從規(guī)模性增長(zhǎng)向健康且有質(zhì)量的增長(zhǎng)轉(zhuǎn)變,于是阿里云、騰訊云等一眾云廠商開(kāi)始調(diào)整策略,試圖從集成商的角色向被集成角色傾斜。
但與之而來(lái)的是,互聯(lián)網(wǎng)流量見(jiàn)頂,數(shù)字化轉(zhuǎn)型進(jìn)程加快,云廠商的服務(wù)對(duì)象開(kāi)始從互聯(lián)網(wǎng)企業(yè)向政企、制造業(yè)甚至是下沉市場(chǎng)轉(zhuǎn)變。
這時(shí)企業(yè)對(duì)云廠商的需求也不再是算力、存儲(chǔ)等基礎(chǔ)云服務(wù),而更加聚焦AI服務(wù)層面。有機(jī)構(gòu)預(yù)測(cè)到,2020年中國(guó)83.4%的企業(yè)重視人工智能,ChatGPT等生成式AI產(chǎn)品火出圈后,企業(yè)對(duì)人工智能的需求再次攀升。
提供人工智能,首先想到的就是大模型。經(jīng)過(guò)反復(fù)的實(shí)踐得出:大模型才是人工智能的發(fā)展趨勢(shì)和未來(lái),其能實(shí)現(xiàn) AI從“手工作坊”到“工廠模式”的轉(zhuǎn)變。
在傳統(tǒng)模型中,根據(jù)不同場(chǎng)景,需要定制不同的算法模型,無(wú)法實(shí)現(xiàn)通用化可復(fù)制化。研發(fā)階段,為了應(yīng)對(duì)各式各樣的場(chǎng)景需求,AI 研發(fā)人員需要設(shè)計(jì)專(zhuān)網(wǎng)專(zhuān)用的個(gè)性定制化神經(jīng)網(wǎng)絡(luò)模型;落地階段,經(jīng)“一個(gè)場(chǎng)景一個(gè)模型”式的作坊式模型開(kāi)發(fā)得到的模型在許多垂直行業(yè)場(chǎng)景任務(wù)不通用,無(wú)論對(duì)于企業(yè)還是云廠商來(lái)說(shuō),都是一筆不小的支出。
而大模型備自監(jiān)督學(xué)習(xí)的能力,能夠有效降低 AI 開(kāi)發(fā)和訓(xùn)練成本,同時(shí)可以適配各種場(chǎng)景。此外基于用戶(hù)的使用反饋,還可實(shí)現(xiàn)自主迭代升級(jí)。之于企業(yè)最大的意義就是,降低AI使用門(mén)檻,讓企業(yè)能夠像還是用水煤電一樣,方便快捷的使用各種AI能力。
李彥宏認(rèn)為,大模型時(shí)代將產(chǎn)生三大產(chǎn)業(yè)機(jī)會(huì):第一類(lèi)是新型云計(jì)算公司,其主流商業(yè)模式從IaaS變?yōu)镸aaS。文心一言將根本性地改變?cè)朴?jì)算行業(yè)的游戲規(guī)則。之前企業(yè)選擇云廠商更多看算力、存儲(chǔ)等基礎(chǔ)云服務(wù)。未來(lái),更多會(huì)看框架好不好、模型好不好,以及模型、框架、芯片、應(yīng)用這四層之間的協(xié)同。
第二類(lèi)是進(jìn)行行業(yè)模型精調(diào)的公司,這是通用大模型和企業(yè)之間的中間層,他們具有行業(yè)Know-how,調(diào)用通用大模型能力,為行業(yè)客戶(hù)提供解決方案。目前,百度文心大模型已經(jīng)在電力、金融、媒體等領(lǐng)域,發(fā)布了10多個(gè)行業(yè)大模型。
第三類(lèi)是基于大模型底座進(jìn)行應(yīng)用開(kāi)發(fā)的公司,即應(yīng)用服務(wù)提供商。李彥宏認(rèn)為,在文本生成、圖像生成、音頻生成、視頻生成、數(shù)字人、3D等場(chǎng)景可能出現(xiàn)未來(lái)的新巨頭。
因此,早在幾年前國(guó)內(nèi)頭部廠商以及就開(kāi)始了相關(guān)大模型的研究與實(shí)踐,甚至有些頭部云廠商還推出了自家的大模型。諸如去年9月阿里達(dá)摩院推出“通義”大模型,此外,為推進(jìn)中文大模型的開(kāi)源生態(tài)建設(shè)推出了 AI 模型開(kāi)源社區(qū)「魔搭」;京東推出了言犀大模型;華為推出了盤(pán)古大模型等等。
但從目前來(lái)看,國(guó)內(nèi)大模型仍處于早期,還沒(méi)到能真正落地應(yīng)用的商業(yè)化階段。
算力規(guī)模大且性能要求高、數(shù)據(jù)規(guī)模大,且數(shù)據(jù)質(zhì)量參差不齊、訓(xùn)練難度大且成本高,堆砌了一道國(guó)內(nèi)企業(yè)難以闖進(jìn)的圍墻。
“算力是企業(yè)通往大模型的攔路虎,也正是目前大模型不能真正落地的巨大挑戰(zhàn),”幾乎已經(jīng)成了行業(yè)共識(shí)。
大模型由于參數(shù)規(guī)模大、數(shù)據(jù)體量大通常需要強(qiáng)大的算力支持,而算力的核心是人工智能芯片。美國(guó)市場(chǎng)研究機(jī)構(gòu)TrendForce在3月1日的報(bào)告中測(cè)算稱(chēng),處理1800億個(gè)參數(shù)的GPT-3.5大模型,需要的GPU芯片數(shù)量高達(dá)2萬(wàn)枚,未來(lái)GPT大模型商業(yè)化所需的GPU 芯片數(shù)量甚至超過(guò)3萬(wàn)枚。
“缺少芯片會(huì)導(dǎo)致算力不足,算力不足意味著無(wú)法處理龐大的模型和數(shù)據(jù)量?!庇袑?zhuān)業(yè)的云計(jì)算技術(shù)人員曾計(jì)算過(guò):1萬(wàn)枚英偉達(dá)A100芯片是做好AI大模型的算力門(mén)檻。
反觀目前中國(guó)的芯片使用現(xiàn)狀,國(guó)際環(huán)境變化之下自美國(guó)實(shí)施貿(mào)易限制政策以來(lái),中國(guó)企業(yè)只能使用英偉達(dá)A100的最佳替代品A800芯片,但是A800芯片在中國(guó)市場(chǎng)嚴(yán)重缺貨,而國(guó)內(nèi)少有企業(yè)具備自研高性能芯片的能力。
除算力算法外,模型訓(xùn)練也是一項(xiàng)既耗時(shí)又耗錢(qián)的工作。訓(xùn)練周期方面,訓(xùn)練一個(gè)如ChatGPT的模型通常需要幾天甚至數(shù)周的時(shí)間;
訓(xùn)練成本方面,據(jù)國(guó)盛證券報(bào)告《ChatGPT 需要多少算力》 估算,GPT-3 訓(xùn)練一次的成本約為 140 萬(wàn)美元,對(duì)于一些更大的 LLM(大型語(yǔ)言模型),訓(xùn)練成本介于 200 萬(wàn)美元至 1200 萬(wàn)美元之間。
以 ChatGPT 在 1 月的獨(dú)立訪客平均數(shù) 1300 萬(wàn)計(jì)算,其對(duì)應(yīng)芯片需求為 3 萬(wàn)多片英偉達(dá) A100 GPU,初始投入成本約為 8 億美元,每日電費(fèi)在5萬(wàn)美元左右。這只是芯片的成本,另外大模型所需的數(shù)據(jù)采集、人工標(biāo)注、模型訓(xùn)練等軟性成本是難以計(jì)算的。
算力算法、運(yùn)營(yíng)成本等仍是國(guó)內(nèi)大多數(shù)企業(yè)無(wú)法跨越的關(guān)卡。
02、構(gòu)建AI大模型,需集齊四張「能力卡」
國(guó)內(nèi)企業(yè)很難做出中國(guó)版AI大模型似乎已經(jīng)成了既定事實(shí),但百度文心一言大模型卻刷新了行業(yè)認(rèn)知。
從一定程度上說(shuō),ChatGPT以及百度文心一言大模型的出現(xiàn),是厚積薄發(fā)的自然結(jié)果。
清華大學(xué)人工智能?chē)?guó)際治理研究院副院長(zhǎng)、人工智能治理研究中心主任梁正也曾對(duì)外表示過(guò):放眼國(guó)內(nèi),最有可能做出中國(guó) ChatGPT 的可能是有綜合優(yōu)勢(shì)和過(guò)去積累和擁有芯片、框架、模型、應(yīng)用四層技術(shù)棧的百度。
百度集團(tuán)執(zhí)行副總裁、百度智能云事業(yè)群總裁沈抖表示,之前企業(yè)選擇云廠商更多是看算力、存儲(chǔ)等基礎(chǔ)云服務(wù),以后企業(yè)對(duì)云的需求會(huì)更加聚焦智能服務(wù),會(huì)更多看框架好不好、模型好不好,以及芯片-框架-模型-應(yīng)用這四層架構(gòu)之間的協(xié)同是否高效。
具體來(lái)看,算力層面,百度自研芯片“昆侖芯”在AI計(jì)算、存儲(chǔ)、加速、容器方面進(jìn)行系統(tǒng)優(yōu)化,提供高性?xún)r(jià)比的算力,承載海量數(shù)據(jù)的處理、超大模型的訓(xùn)練和推理,目前已經(jīng)在多個(gè)場(chǎng)景實(shí)際部署幾萬(wàn)片。
另外,百度還擁有多個(gè)云計(jì)算可用區(qū),諸如陽(yáng)泉、徐水、定興云計(jì)算中心,其中陽(yáng)泉智能云數(shù)據(jù)中心一期就可承載16萬(wàn)臺(tái)服務(wù)器,預(yù)計(jì)整個(gè)百度陽(yáng)泉云計(jì)算中心可承載24萬(wàn)臺(tái)服務(wù)器;
百度目前已在山西陽(yáng)泉、江蘇鹽城等地建設(shè)智算中心。其中,百度陽(yáng)泉智算中心是亞洲最大單體智算中心,建設(shè)規(guī)模為4 EFLOPS(每秒400億億次浮點(diǎn)運(yùn)算)AI算力,可滿(mǎn)足各行業(yè)超大規(guī)模AI計(jì)算需求。昆侖芯科技戰(zhàn)略負(fù)責(zé)人宋春曉表示:“人工智能芯片是算力的核心,昆侖芯2代已在百度文心大模型的應(yīng)用中廣泛落地,并為各行各業(yè)的智能化升級(jí)提供AI算力支持?!?/p>
據(jù)了解,百度智算中心持續(xù)創(chuàng)新計(jì)算架構(gòu),支持智算時(shí)代下企業(yè)不同業(yè)務(wù)場(chǎng)景的計(jì)算任務(wù),提升企業(yè)的業(yè)務(wù)效率和創(chuàng)新能力。目前,百度智算中心已支持了文心預(yù)訓(xùn)練大模型、生物計(jì)算、自動(dòng)駕駛等前沿AI應(yīng)用。同時(shí),基于自研創(chuàng)新技術(shù)可使PUE低至1.08,實(shí)現(xiàn)了高效節(jié)能的運(yùn)行,從而降低客戶(hù)的電費(fèi)和運(yùn)維成本。
深度學(xué)習(xí)框架層面,作為人工智能的底層操作系統(tǒng)——飛槳深度學(xué)習(xí)平臺(tái)向下適配各種硬件,支持文心大模型的開(kāi)發(fā)、高性能訓(xùn)練、模型壓縮、服務(wù)部署的各種能力,截止2022年底已凝聚535萬(wàn)開(kāi)發(fā)者,基于飛槳?jiǎng)?chuàng)建了67萬(wàn)個(gè)模型,服務(wù)20萬(wàn)家企事業(yè)單位,貫通了AI全產(chǎn)業(yè)鏈,串聯(lián)起全棧化的產(chǎn)業(yè)生態(tài)體系。
文心大模型層面,則已經(jīng)形成知識(shí)增強(qiáng)的ERNIE 3.0系列、跨模態(tài)系列等底座模型,在原有能源、金融、航天、傳媒等行業(yè)的基礎(chǔ)上,進(jìn)一步升級(jí)到了11個(gè)行業(yè)大模型,將行業(yè)大模型延伸到了制造業(yè)、城市管理、汽車(chē)等關(guān)鍵領(lǐng)域。目前,百度已經(jīng)實(shí)現(xiàn)了“0到1”做標(biāo)桿的階段,進(jìn)入到了“從1-到3”的復(fù)制推廣階段。
這都為百度打造文心一言奠定堅(jiān)實(shí)的技術(shù)基礎(chǔ),雷峰網(wǎng)了解到,自文心一言對(duì)外官宣后,已經(jīng)有包括互聯(lián)網(wǎng)、媒體、金融、保險(xiǎn)、汽車(chē)、企業(yè)軟件等行業(yè)的 400 多家頭部企業(yè)宣布加入百度“文心一言”生態(tài),且這個(gè)生態(tài)還在持續(xù)擴(kuò)大。
為支持文心一言超大規(guī)模計(jì)算需求,進(jìn)一步實(shí)現(xiàn)文心一言的產(chǎn)業(yè)化落地,去年年底開(kāi)始,百度智能云已經(jīng)通過(guò)三大動(dòng)作全面升級(jí)云服務(wù)能力:2022年12月,發(fā)布國(guó)內(nèi)首個(gè)全棧自研的AI基礎(chǔ)設(shè)施“AI大底座”;2023年2月,升級(jí)AI研發(fā)運(yùn)營(yíng)一體化(MLOps)能力;2023年3月,百度陽(yáng)泉智算中心完成升級(jí)。
值得一體的是,去年百度智能云還推出了“云智一體3.0”架構(gòu),并發(fā)布首個(gè)全棧自研的AI基礎(chǔ)設(shè)施“AI大底座”。
其中,“云智一體3.0”架構(gòu),形成了一套“芯片-框架-大模型-行業(yè)應(yīng)用”的智能化閉環(huán)路徑,每一環(huán)都有關(guān)鍵自研技術(shù),每一環(huán)之間都能形成信息反饋,通過(guò)不斷獲得反饋,實(shí)現(xiàn)端到端優(yōu)化。
百度AI大底座則在AI IaaS層,整合AI芯片“昆侖芯”,在AI計(jì)算、存儲(chǔ)、加速、容器方面進(jìn)行系統(tǒng)優(yōu)化,提供高性?xún)r(jià)比的算力,承載海量數(shù)據(jù)的處理、超大模型的訓(xùn)練和推理;在AI PaaS層,整合飛槳深度學(xué)習(xí)框架及百度文心大模型,打通百度的樣本中心、模型中心、AI開(kāi)發(fā)平臺(tái)、AI服務(wù)運(yùn)行平臺(tái),實(shí)現(xiàn)從數(shù)據(jù)存儲(chǔ)到模型訓(xùn)練、生產(chǎn)、部署、測(cè)試的全鏈路、批量化生產(chǎn),面向企業(yè)模型開(kāi)發(fā)的全生命周期提供完整解決方案。
而面對(duì)高昂的訓(xùn)練成本問(wèn)題,百度毫不吝嗇在AI領(lǐng)域的研發(fā)投入力度。相關(guān)數(shù)據(jù)顯示,2022年研發(fā)費(fèi)用達(dá)214.16億元,占百度核心收入比例達(dá)22.4%,百度第四季度的研發(fā)支出為57億元,截止現(xiàn)在研發(fā)費(fèi)用占百度核心收入比例已經(jīng)連續(xù) 9個(gè)季度在20%以上。
03、寫(xiě)在最后
云計(jì)算發(fā)展從黃金期過(guò)渡到瓶頸期,以賣(mài)資源搶占市場(chǎng)的時(shí)代已經(jīng)結(jié)束,與之而來(lái)的是通用智能化時(shí)代。在這個(gè)時(shí)代,誰(shuí)先基于大模型搶先開(kāi)發(fā)重要的應(yīng)用服務(wù)在這個(gè)時(shí)代,誰(shuí)能推出通用化可復(fù)制化的智能化解決方案,誰(shuí)就能在下一個(gè)云計(jì)算發(fā)展的十年中占據(jù)有利位置。
雷峰網(wǎng)了解到,從3月16號(hào)開(kāi)始,文心一言正式開(kāi)放預(yù)約,至3月17日下午2點(diǎn),排隊(duì)申請(qǐng)百度智能云 文心一言企業(yè)版API調(diào)用服務(wù)測(cè)試的企業(yè)用戶(hù)突破8萬(wàn)家。感興趣的讀者可直接搜索“百度智能云”進(jìn)入官網(wǎng),申請(qǐng)加入文心一言的云服務(wù)測(cè)試。