一水 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
AI視頻頂流Pika拿著8000萬(wàn)美元(約5.8億人民幣)新融資又殺回來(lái)了!
投資者包括Spark Capital(領(lǐng)投)、Lightspeed和Greycrof等著名機(jī)構(gòu)。
Pika回應(yīng)量子位,本輪投后最新估值將來(lái)到4.7億美元(約34億人民幣)。
這家由兩位斯坦福華人博士創(chuàng)立的公司曾在去年底推出了產(chǎn)品1.0并宣布融資5500萬(wàn)美元。
而后半年,Pika從最初的4人團(tuán)隊(duì)擴(kuò)展至13人,并陸續(xù)上線了幾項(xiàng)新功能,還在今年4月入選福布斯AI50強(qiáng)榜單。
Pika所在的AI視頻生成賽道,今年在技術(shù)和投融資領(lǐng)域均迎來(lái)雙重爆發(fā)。
技術(shù)方面,OpenAI發(fā)布的Sora為行業(yè)樹(shù)立了新的標(biāo)桿,將時(shí)長(zhǎng)一舉拉到60s,而后開(kāi)源社區(qū)發(fā)布了能生成2分鐘視頻的StreamingT2V,緊接著國(guó)內(nèi)發(fā)布了對(duì)標(biāo)Sora能生成16s、分辨率高達(dá)1080P的Vidu,再然后谷歌推出同樣對(duì)標(biāo)Sora能生成1分鐘視頻的Veo。
投資方面,繼人們對(duì)文本和圖像生成器的興趣激增之后,使用AI生成視頻被認(rèn)為是下一個(gè)前沿領(lǐng)域,初創(chuàng)企業(yè)和大型科技公司都在押注該領(lǐng)域。除了Pika,其他AI視頻初創(chuàng)公司Runway和Synthesia也在過(guò)去一年里籌集了大量資金。
目前,Pika等初創(chuàng)公司正在快速擴(kuò)張,因?yàn)镺penAI和谷歌的視頻工具尚未面向公眾開(kāi)放,這給它們留了一定時(shí)間。
那么,自半年前推出1.0以來(lái),Pika后來(lái)都在忙啥呢?
AI視頻生成賽道,在這段時(shí)間還有哪些大事件發(fā)生?
Pika最近半年干了啥?
概括而言,Pika近半年除了推出幾項(xiàng)“錦上添花”的新功能外,一直在做產(chǎn)品和技術(shù)更新。
下面按照時(shí)間順序大概梳理一下。
2023年12月,也就是Pika1.0上線后不久,其研究人員提出了將文本轉(zhuǎn)3D生成速度提高4.7倍的方法。
這一被稱為DreamPropeller的嵌入式加速算法,能夠優(yōu)化并增強(qiáng)任何基于分?jǐn)?shù)蒸餾的文本到3D模型生成流程。
之后不久,Pika宣布面向所有公眾開(kāi)放,不過(guò)緊跟著推出了其付費(fèi)訂閱模式。
到了今年2月底,Pika宣布推出可以給視頻中的人物配音,并同時(shí)“對(duì)口型”的唇形同步功能Lip Sync。
然后接著在3月份推出AI配音工具Sound Effects,有了這項(xiàng)新功能,用戶既可以使用文本生成音效,也可以讓Pika直接根據(jù)視頻內(nèi)容匹配音效。
至今年4月,Pika在成立不到1年后入選了福布斯AI50強(qiáng)榜單。
以上為Pika最近半年的動(dòng)向,Pika表示公司目前擁有數(shù)百萬(wàn)用戶(官方在彭博采訪中未提供確切數(shù)字),不過(guò)能看到Discord上有近80萬(wàn)用戶。
AI視頻賽道已變天
簡(jiǎn)單回顧一下,Pika的創(chuàng)始人一共有兩位,郭文景(Demi Guo)和Chenlin Meng,都是斯坦福博士。
從二人學(xué)術(shù)經(jīng)歷來(lái)看,她們分別專注于NLP和計(jì)算機(jī)視覺(jué)兩個(gè)方向的AI研究,也都有生成式AI的學(xué)術(shù)經(jīng)歷。
這兩人在AI生成領(lǐng)域?qū)I(yè)背景深厚且技術(shù)過(guò)硬,以至于在團(tuán)隊(duì)僅有4人之時(shí)就獲得了5500萬(wàn)美元融資。
Pika亮相的時(shí)機(jī)不可謂不妙,從去年11月開(kāi)始,一個(gè)月內(nèi)就有5家AI視頻生成產(chǎn)品發(fā)布或迎來(lái)重大更新。
主要包括:
11月3日,Runway的Gen-2發(fā)布里程碑式更新,支持4K超逼真的清晰度作品。
11月16日,Meta發(fā)布Emu Video,這個(gè)工具在用戶評(píng)估中號(hào)稱打敗Gen-2、Pika等對(duì)手。
11月18日,字節(jié)發(fā)布PixelDance,作品的動(dòng)態(tài)性可謂史無(wú)前者,畫(huà)面中的元素動(dòng)作幅度都相當(dāng)大,且不變形,讓人眼前一亮。
11月21日,Stable AI也推出了自家的視頻工具Stable Video Diffusion。
同在21日,Gen-2上線“涂哪動(dòng)哪”的運(yùn)動(dòng)筆刷新功能,這是生成模型可控性上的一個(gè)重要里程碑。
接下來(lái)就是Pika在11月29日發(fā)布正式版1.0,叫板“老大哥”Runway。
可以說(shuō),Pika正是在人們將目光狂熱轉(zhuǎn)向視頻生成領(lǐng)域時(shí)橫空出世的,可謂趕上了風(fēng)口。
但沒(méi)人預(yù)料的到,新年伊始,OpenAI“殺手級(jí)”視頻生成模型Sora發(fā)布,將視頻生成的質(zhì)量拉高了一個(gè)檔次,時(shí)長(zhǎng)也拉到了60秒。
Sora的熱度蓋過(guò)了一切,行業(yè)后來(lái)者也必須得卷起來(lái)了。
4月7日,GitHub開(kāi)源了視頻生成模型StreamingT2V,能夠生成1200幀、時(shí)長(zhǎng)120秒的長(zhǎng)視頻。
緊隨其后,4月29日,清華大學(xué)與生數(shù)科技聯(lián)合發(fā)布了Vidu,畫(huà)面效果對(duì)標(biāo)Sora,長(zhǎng)度可達(dá)16秒,還能讀懂物理規(guī)律。
然后就是谷歌在5月14日的開(kāi)發(fā)者大會(huì)上發(fā)布了Veo,對(duì)標(biāo)Sora能生成一分鐘長(zhǎng)視頻。
總之,AI視頻生成在技術(shù)上愈發(fā)成熟,也因此帶動(dòng)了行業(yè)投融資風(fēng)潮。
僅在2024年3月一個(gè)月,就有三個(gè)華人創(chuàng)立的AI視頻生成創(chuàng)企獲得了融資,且融資額都過(guò)了千萬(wàn)美金。
3月7日,總部位于英國(guó)倫敦的Haiper(由兩位前DeepMind團(tuán)隊(duì)的華人工程師建立)宣布產(chǎn)品上線,并已經(jīng)完成1380萬(wàn)美金融資。
3月13日,由前字節(jié)跳動(dòng)視覺(jué)技術(shù)負(fù)責(zé)人創(chuàng)立的愛(ài)詩(shī)科技,完成一億元人民幣(約合1380萬(wàn)美金)左右的A1輪融資。
3月24日,憑借讓霉霉說(shuō)中文視頻火起來(lái)的AI數(shù)字人產(chǎn)品HeyGen(由前Snap軟件工程師徐卓創(chuàng)立)完成一輪6000萬(wàn)美元的融資。
4月23日,愛(ài)詩(shī)科技完成A2輪超億元融資,由螞蟻集團(tuán)領(lǐng)投。
6月1日,Runway獲得1億美元D輪融資,由谷歌領(lǐng)投。
就在6月5日,生數(shù)科技宣布完成數(shù)億元Pre-A輪融資,由北京市人工智能產(chǎn)業(yè)投資基金、百度聯(lián)合領(lǐng)投。
不難看出,AI視頻生成今年將迎來(lái)新的爆發(fā),而作為頂流之一,Pika自然有人關(guān)注。
且Pika現(xiàn)在聲稱他們已經(jīng)構(gòu)建起了自己的“基礎(chǔ)模型”,因此不會(huì)依賴其他AI公司的技術(shù)。
雖然需要不少資金來(lái)訓(xùn)練模型,但創(chuàng)始人郭文景透露Pika在這塊不需要消耗大量的資金,他們有點(diǎn)類似法國(guó)的Mistral AI,可以在較少資金的情況下也能訓(xùn)練出比較好的模型,不過(guò)具體沒(méi)有透露。
最后,今天正值Pika一周年生日(從創(chuàng)始人休學(xué)創(chuàng)辦Pika開(kāi)始計(jì)算),官方也放出了紀(jì)念視頻。
接下來(lái),Pika計(jì)劃在今年晚些時(shí)候發(fā)布其文本轉(zhuǎn)視頻模型的重大更新,這包括兩方面,一個(gè)是提供更高質(zhì)量、更長(zhǎng)的視頻,另一個(gè)是確保輸出的一致性。
據(jù)創(chuàng)始人郭文景透露:
Pika的新工具可以讓用戶定義一個(gè)對(duì)象或角色,然后在視頻中或最終在不同的剪輯中一致地生成它。
那么,你看好這家公司嗎?歡迎在評(píng)論區(qū)留言討論。
參考資料:
[1]https://arxiv.org/abs/2311.17082
[2]https://x.com/GoogleDeepMind/status/1790894262193988022
[3]https://streamingt2v.github.io/
[4]https://x.com/pika_labs/status/1797091532455248224
[5]https://pika.art/blog
[6]https://www.washingtonpost.com/technology/2024/06/04/pika-funding-openai-sora-google-video/
[7]https://www.bloomberg.com/news/articles/2024-06-05/spark-capital-jared-leto-back-ai-video-startup-pika