撰文?| 郝? ?鑫,編輯?| 吳先之
6.18卷價格的風(fēng)吹到了大模型圈。
5月15日,火山引擎率先亮劍,宣布豆包主力模型在企業(yè)市場定價為0.0008元/千 tokens,較行業(yè)便宜99.3%。其精準(zhǔn)狙擊同行的做法,直接掀起了一場大模型廠商低價肉搏戰(zhàn)。
阿里、百度、科大訊飛、騰訊紛紛站出來應(yīng)戰(zhàn)。
5月21日,阿里云官宣通義千問主力模型Qwen-Long輸入價格降至0.0005元/千 tokens,直降97%;僅隔了幾個小時,百度智能云祭出必殺技,宣布文心大模型兩大主力模型ERNIE Speed、ERNIE Lite全面免費(fèi)。
自百度之后,大模型徹底與免費(fèi)掛上了鉤。
5月22日,科大訊飛宣布訊飛星火Lite API永久免費(fèi)開放。下午,騰訊云公布全新大模型升級方案,主力模型之一的混元-lite模型調(diào)整為全面免費(fèi)。
僅一周,大模型從“厘”時代跨入了“免費(fèi)”時代。
表面是降價,背后的根本驅(qū)動力來自于技術(shù)。在經(jīng)歷過一年多的技術(shù)追趕后,國內(nèi)大模型廠商在算力、推理、算法等多個層面都實(shí)現(xiàn)了突破,從而實(shí)現(xiàn)了技術(shù)方面的降本。再加之大廠云計算所帶來的規(guī)模化優(yōu)勢,才共同引發(fā)了降價潮。
從另一方面也側(cè)面印證了,大模型從發(fā)布會demo進(jìn)入了可用的新階段。火山引擎總裁譚待談到豆包大模型發(fā)布和降價時間點(diǎn)時提到了一個標(biāo)準(zhǔn):“模型能力準(zhǔn)備好了”。當(dāng)下,各大模型廠商能夠大范圍開放使用的前提就是,模型能力通過測試,并且能夠穩(wěn)定供給。
細(xì)究之下,大模型廠商的低價、免費(fèi),更像是引誘老鼠出洞的奶酪。
這種免費(fèi)帶有諸多限制,阿里、百度降價幅度最高的產(chǎn)品都是其偏輕量化的模型版本,僅適用于使用頻次不高、推理量不太大、任務(wù)處理量不太復(fù)雜的中小企業(yè)、開發(fā)者短期使用。
在這種情況下,低價、免費(fèi)這些“互聯(lián)網(wǎng)”手段淪為了大模型廠商的獲客策略,一邊獲得更多的數(shù)據(jù)來優(yōu)化模型效果,一邊試圖通過嘗鮮來向更高階的付費(fèi)版本轉(zhuǎn)化。
買得精不如賣得精,大模型廠商集體降價的背后仍有一系列問題值得探討。
用互聯(lián)網(wǎng)免費(fèi)大法賣AI大模型
從使用者的角度考慮,大模型降價潛在的受益對象可能有兩類:開發(fā)者和企業(yè)。
雖然行業(yè)內(nèi)大規(guī)模降價是第一次,但早在去年,各大廠就通過贏黑客松比賽送token的方式,來吸引AI創(chuàng)業(yè)者和團(tuán)隊的參與。
當(dāng)時,就有黑客松常客告訴光子星球,“參加比賽就是薅羊毛,token不拿白不拿”。
薅羊毛確實(shí)可以降低創(chuàng)業(yè)成本。把價格打下來,對開發(fā)者特別是獨(dú)立開發(fā)者而言是友好的。這可能意味著開發(fā)者可以多跑幾圈測試,多獲得幾輪反饋數(shù)據(jù),從而縮短產(chǎn)品上線的周期,進(jìn)一步提升創(chuàng)業(yè)成功的可能性。
但前提是得滿足開發(fā)者和企業(yè)的需求。光子星球了解到,降價的消息傳出后,在開發(fā)者和企業(yè)當(dāng)中呈現(xiàn)出了兩極化的聲音。
一方對國內(nèi)大模型降價比較贊同,認(rèn)為開發(fā)者和企業(yè)可以繼續(xù)薅羊毛,畢竟現(xiàn)在市場上套殼應(yīng)用產(chǎn)品的案例不在少數(shù);另一方則覺得,大模型廠商的降價缺乏誠意,大幅降價的都是小規(guī)模模型,雖然對外聲稱水平可以對標(biāo)GPT-4,但實(shí)際上連GPT-3.5都不如,模型水平不達(dá)標(biāo),根本無法在實(shí)際的生產(chǎn)環(huán)境中運(yùn)行。
大模型廠商表面上的降價,實(shí)則背后暗藏玄機(jī)。這好比給了你一個云盤限時體驗(yàn)卡,剛看了三秒的高清視頻就彈出來升級VIP的提醒,也是恰巧剛體驗(yàn)了5秒極速下載,就提醒你升級會員權(quán)限。
大模型的嘗鮮也是大差不差,打著降價、免費(fèi)的噱頭,把開發(fā)者和企業(yè)吸引過來使用,才剛上手,就被開始卡調(diào)用速度、推理速度、任務(wù)處理量等關(guān)鍵指標(biāo)。
而且,光子星球進(jìn)一步發(fā)現(xiàn),大模型廠商的降價策略并未對商業(yè)化造成實(shí)質(zhì)性影響。呈現(xiàn)的結(jié)果就是,大模型廠商價格降了,錢也沒少賺。
某大廠內(nèi)部人士告訴光子星球,大模型目前主要的商業(yè)化方式是拿to B訂單。類似于SaaS和云的合作模式,存在case by case和合作提成兩種方式。
其中,case by case是更為主流的合作方式,即大模型廠商的現(xiàn)有客戶會因?yàn)楸緛砭驮谑褂媚骋粡S商的云和SaaS產(chǎn)品,順帶著開始嘗試該廠商的大模型。相應(yīng)地,大模型廠商為了留住客戶,也會在自家SaaS和云產(chǎn)品上增加AI的功能。
這樣一來可能造成如下情況:大模型變成了SaaS產(chǎn)品或者項(xiàng)目合作的增值要素。大模型本身不付費(fèi),但為了對沖成本,大模型廠商得反過來提高SaaS和項(xiàng)目合作的價格。羊毛最終出在羊身上,價格的一升一降,大廠非但沒虧反而照賺不誤。
大模型降價了,然后呢?
或許國內(nèi)大模型價格戰(zhàn)的影響在于,從現(xiàn)在起,大模型正式與“免費(fèi)”劃上了等號。
這將成為一次分水嶺,過去兩年,一眾創(chuàng)業(yè)者和團(tuán)隊試圖建立的“上線即收費(fèi)”的AI原生產(chǎn)品邏輯再次受到挑戰(zhàn)。兜兜轉(zhuǎn)轉(zhuǎn),互聯(lián)網(wǎng)的商業(yè)邏輯再次主導(dǎo)了大模型的發(fā)展。
無論國內(nèi)外,行業(yè)中一直都存在著模型混用的狀態(tài)。本質(zhì)上在于各家大模型各有所長,比如ChatGPT擅理,Claude擅文,正是基于不同模型的特性,用戶在不同的使用場景就會調(diào)取相應(yīng)地模型。
類似的情況也發(fā)生在中國,我們了解到,金山辦公在研發(fā)WPS AI功能的過程中,就輪流嘗試了MiniMax、智譜AI、文心一言、商湯日日新、通義千問等大模型能力,通過了解各家大模型的優(yōu)勢來搭建自己的平臺。
去年,國內(nèi)一家做數(shù)據(jù)治理的公司曾告訴光子星球,他們也會在前期大量地跑模型,測試不同模型的能力,在不同任務(wù)中擇優(yōu)調(diào)取大模型的能力。這樣既進(jìn)行了成本測試,也能避免對單一產(chǎn)品過度依賴。
到現(xiàn)在為止,大模型產(chǎn)品時常被人詬病用戶黏性不高。相比于訂閱收費(fèi),按API調(diào)取收費(fèi)的方式本就難以留客。
企業(yè)側(cè)的case by case收費(fèi)模式亦是如此,企業(yè)使用某一家廠商的大模型周期,取決于訂單周期??蛻舾唵巫撸裉煊米止?jié),明天也可以用阿里。
降價的本質(zhì)是要加速大模型落地。大模型不能只停留在寫詩作畫,還得“下基層”。降價的背后是通過觸達(dá)千行百業(yè)和獲取更大樣本容量的合作案例,從中提取共性特征,形成合理、高效的大模型行業(yè)標(biāo)準(zhǔn)。
當(dāng)大模型廠商再次拉回到了同一起跑線上,在各家模型能力水平相近,價格不相上下的情況下,他們所要面臨的共同課題變成了如何留住客戶。
而站在大模型客戶的角度,他們更希望通過對沖,減少對單一模型的依賴。在這樣的心理驅(qū)動之下,未來的大模型模式可以參考SaaS和云產(chǎn)品的采購方式,一家公司內(nèi)部可以購買多家大模型公司產(chǎn)品,不同的產(chǎn)品線和業(yè)務(wù)部門也可能使用不同家的大模型。
贏了價格,就贏了一切嗎?
回顧歷史,大模型一路從百模、參數(shù)、長文本打到了現(xiàn)在的價格。過去的經(jīng)驗(yàn)告訴我們,價格不可能是唯一的決定因素。
即使不談企業(yè)和開發(fā)者拿到手的東西對不對版,大模型廠商給出的價格在市場上也不是很有競爭力。
比國內(nèi)大模型更具性價比的是開源大模型。一位國內(nèi)負(fù)責(zé)電商代運(yùn)營業(yè)務(wù)的工作人員告訴光子星球,截至目前為止,自己業(yè)務(wù)部門購買過ChatGPT、Midjourney等AI相關(guān)的付費(fèi)產(chǎn)品,現(xiàn)在底層使用的是開源且可商用的Llama 3。
一些公司和開發(fā)者更傾向部署開源模型的原因在于,一方面國外Llama等開源模型的能力一直在追趕最強(qiáng)版本ChatGPT的水平,一些通用場景能力在業(yè)務(wù)中足夠用。另一方面,從頭部署和精調(diào)模型,對后期業(yè)務(wù)調(diào)整也更靈活。
此外,光子星球發(fā)現(xiàn),在閉源的大模型原廠和開源社區(qū)中間,還衍生出了中間商角色。一個令人費(fèi)解的現(xiàn)象正在大模型行業(yè)蔓延:大模型分銷商賣的API價格比原廠價格還便宜。
以國外Deepbricks平臺為例,最新上架的GPT-4o模型,OpenAI官方輸入價格為5美元/1M tokens,而Deepbricks自身的售價只要2美元/1M tokens。如果這些中間商真的能做到實(shí)時更新模型能力,還能做到低價,以后可能會吸引一批開發(fā)者和企業(yè)使用。
Lepton AI 創(chuàng)始人、阿里巴巴原副總裁賈揚(yáng)清認(rèn)為,企業(yè)在使用AI的時候,并不是成本驅(qū)動。不是因?yàn)锳PI貴才沒人用,而是因?yàn)槠髽I(yè)首先得搞清楚怎么用來產(chǎn)生業(yè)務(wù)價值,否則的話,再便宜也是浪費(fèi)。
若單純的價格不具有吸引力,客戶使用哪家大模型將取決于什么?
一位中間件的創(chuàng)業(yè)者向光子星球表示:“最主要看模型效果,如果模型效果太差再便宜也不能使用?!?/p>
還有海外的AI創(chuàng)業(yè)者直接跟光子星球說,國外用ChatGPT,因?yàn)槟芰?qiáng);國內(nèi)用文心一言,因?yàn)槟軡M足合規(guī)需求。
于是,價格僅僅是企業(yè)選擇大模型其中一個因素。
同樣在云計算和SaaS時代,往往能夠留住客戶的不是低價,而是更深層次的綁定關(guān)系或者利益關(guān)系。例如,當(dāng)企業(yè)采用了火山引擎的豆包模型,是否就能在抖音投流享受到優(yōu)惠權(quán);接入通義千問,其產(chǎn)品是否就能與阿里生態(tài)打通,獲得更多資源支持?
企業(yè)用戶選擇大模型的同時,也在權(quán)衡廠商的各自優(yōu)勢。大模型能力的高低成為了其次,更重要的是選擇這家廠商能給其業(yè)務(wù)帶來多少增長,在該廠商的產(chǎn)業(yè)鏈之下能獲得多大的收益。
到最后還是要拿結(jié)果說話,正如賈揚(yáng)清所言,“也許不是最便宜的贏得商戰(zhàn),而是能落地的贏得利潤。”