作者:陳彬,編輯:李墨天
6個月前,OpenAI爆發(fā)了一場舉世矚目的內部斗爭:
CEO奧特曼(Sam Altman)突然被開除,106個小時后,又在員工的簇擁下復職。
自那之后,“刺殺國王”的始作俑者之一、首席科學家伊利亞(Ilya Sutskever),再也沒有現(xiàn)身。伊利亞是“深度學習教父”辛頓的大弟子,OpenAI的靈魂人物。消失前,他最后的工作,是帶領名為“超級對齊”的安全團隊。
GPT-4o發(fā)布會之后,伊利亞突然更新推文,宣布從OpenAI離職。首席科學家的退出,加速了OpenAI的分裂。
3天后,另一位“超級對齊”的科學家簡·雷克(Jan Leike),也宣布提桶跑路。簡·雷克公開爆料稱,兩人與奧特曼等高層存在嚴重分歧,安全團隊舉步維艱。
OpenAI的文化正在“變質”,忽視安全主義而轉向“閃亮的產品”。
陸續(xù)有技術大牛選擇離開。
一位OpenAI員工對著媒體說道,“注重安全的員工已經對他失去了信心。信任正一點點崩潰,就像多米諾骨牌一張一張倒下一樣[1]。”
眾所周知,OpenAI是一家由理想主義情結捏合起來的機構。然而,對于如何實現(xiàn)這一理想,OpenAI內部卻漸漸衍生出了兩條不同的路線。伊利亞的離開,意味著他所代表的理想主義,已經徹底敗給了另一種理想主義。
科學家與狂想家
2005年的一個周日,多倫多大學教授辛頓的辦公室門外,來了個不速之客。
來者是一位數(shù)學系的學生,操著一口東歐口音,表情似乎總是愁眉苦臉。彼時,辛頓是極少數(shù)仍在研究深度學習的學者,并在多倫多大學組建了一個實驗室。
這個學生說,他整個夏天都在快餐店兼職炸薯條,現(xiàn)在他更想來這個實驗室工作。
辛頓打算考考這位急于展現(xiàn)自己的年輕人,給了他一份反向傳播的論文。這篇論文寫于上世紀80年代,是辛頓最知名的研究成果之一。幾天后,這個學生回來了,問他,“你為什么不求導并采用一個合理的函數(shù)優(yōu)化器?”
辛頓倒吸了一口氣,“我花了5年時間才想到這一點。[2]”這個學生,就是伊利亞。
辛頓發(fā)現(xiàn),伊利亞有種非常強大的原始直覺,能靠“第六感”找到正確的技術路線[2]。因此,辛頓將伊利亞視作唯一一個比自己更“天才”的學生[3]。
并且,辛頓很快發(fā)現(xiàn),“技術天才”只是伊利亞身上的一個特質。
與伊利亞長期共事過的研究員謝爾蓋·萊文(Sergey Levine)曾說道,他喜歡大的想法,并且從不懼怕相信。“不怕的人有很多,但他尤其不怕。[2]”
2010年,伊利亞在閱讀了一篇論文之后,便大膽宣稱,深度學習將改變計算機視覺——只需要有人來推動這項研究。在那個深度學習等同于民科的時代,伊利亞這番發(fā)言,顯然是有些倒反天罡的。
然而,他只花了2年,就打了所有人的臉。
2012年,辛頓、伊利亞以及克里哲夫斯基三人打造的AlexNet,以高達84%的圖像識別正確率,讓世界看到了深度學習的潛力,并引發(fā)了產業(yè)界的狂熱追逐。
那一年,谷歌花了4400萬美元的天價,只為了將AlexNet的3位作者收入麾下。
谷歌工作期間,伊利亞又開始相信一件更宏大的事情:超越人類的超級智能,已經近在眼前。
一方面,是因為他發(fā)現(xiàn)深度學習的游戲規(guī)則變了。
此前,研究深度學習的只有一小撮人,資源捉襟見肘。2009年時,辛頓曾短暫地在微軟做過一個深度學習項目,連一張價值1萬美金的顯卡都申請不下來,氣得他一頓陰陽怪氣,“微軟顯然是家資金短缺的軟件銷售商。[2]”
然而,自AlexNet之后,無數(shù)聰明頭腦與熱錢涌入,未來被加速了。
另一方面,早在學生時期,伊利亞就堅信Scaling laws。“第六感”告訴他,超級智能并沒那么復雜,只需要更多的數(shù)據(jù)與算力。
并且,伊利亞又一次證明了自己是對的。
2014年的NIPS學術會議上,伊利亞公布了他最新的研究成果:Seq2Seq(序列到序列)模型。Transformer誕生之前,它曾是谷歌機器翻譯的靈魂。只需要足夠的數(shù)據(jù),Seq2Seq模型就能表現(xiàn)得很好。
伊利亞在路演中提到,一個弱模型永遠不可能有好的表現(xiàn)?!罢嬲慕Y論是,如果你有一個非常大的數(shù)據(jù)集和非常大的神經網絡,那么成功是有保證的。[4]”
科學家與狂想家這兩張面孔,在伊利亞身上迸發(fā)了神奇的化學反應。
隨著伊利亞對超級智能愈發(fā)篤信,他對安全問題的重視也與日俱增。沒過多久,伊利亞便遇見了知己。
理想主義的天花板
2015年,伊利亞收到投資機構Y Combinator掌門人薩姆·奧特曼的邀請,前往硅谷的瑰麗酒店參與一場秘密聚會。然而,奧特曼并非這場秘密聚會的主角。
馬斯克突然現(xiàn)身,告訴現(xiàn)場所有人,他打算成立一間AI實驗室。
促使馬斯克這么做的導火索,是數(shù)周前的44歲生日派對。
當時,馬斯克邀請了谷歌CEO拉里·佩奇等一眾好友,去度假村玩了3天。晚飯過后,馬斯克與佩奇圍繞AI展開了激烈爭吵。馬斯克認為AI會毀滅人類,而佩奇則不以為然,嘲諷他是個“物種主義者”,對硅基生命有偏見[5]。
從那之后,馬斯克就不怎么和佩奇說話了。
在秘密聚會的現(xiàn)場,馬斯克等人提到,很少有科學家會考慮自己研究的長期后果。如果任由谷歌這樣的大型企業(yè)壟斷AI技術,很可能會在無意間造成巨大傷害。
因此,他們提出了一種全新的形式:
成立一間不受任何人控制、非盈利的實驗室。
他們同樣會去追逐AGI(通用人工智能)的圣杯,但不以盈利為導向,且放棄大多數(shù)研究成果,轉而面向社會公開(open source)。馬斯克與奧特曼認為,如果所有人都能獲得強大的AI,那么“惡意AI”的威脅將大大降低。
“我能想到最好的事情,就是讓人類以更安全的方式構建真正的AI?!绷硪晃唤M織者布羅克曼(Greg Brockman)說道[6]。
伊利亞被這個浪漫的想法打動了。他為此放棄了年薪200萬美元的誘惑,毅然加入OpenAI。
成立的頭15個月,OpenAI并沒有設立具體的戰(zhàn)略方向。谷歌科學家達里奧·阿莫迪(Dario Amodei),當時曾拜訪過OpenAI,詢問在研究什么,OpenAI的管理層竟一時答不上來,“我們現(xiàn)在的目標...是做點好事。[7]”
幾個月后,阿莫迪跳槽去了OpenAI,一起做點好事。
2017年3月,奧特曼等領導層意識到該更專注了。然而,在規(guī)劃AGI路線圖的時候,他們卻發(fā)現(xiàn)了一個嚴重的問題:算力跟不上了。大模型所需要的算力,每隔3-4個月就會翻一倍;非盈利機構的形式,顯然不足以支撐。
當時,馬斯克提出了一個提案:OpenAI并入特斯拉,由他完全掌管[8]。
然而,馬斯克低估了奧特曼的野心。
奧特曼一直在尋找重大的科學突破,希望憑此打造出一家價值萬億美金的企業(yè)。過去,YC最為人熟知的投資案例,是Airbnb。隨著奧特曼掌權之后,YC開始擠破腦袋尋
找各種研究核聚變、人工智能、量子計算的公司。
a16z創(chuàng)始人、風險投資家馬克·安德森曾表示,“在奧特曼的領導下,YC的野心水平提高了10倍。[9]”
2018年2月,奧特曼將OpenAI管理層都拉攏到了自己的陣營。馬斯克從此離開了團隊,不再和奧特曼說話,并取消了對OpenAI的后續(xù)資助。
兩個月后,奧特曼發(fā)布了OpenAI的公司章程。在不起眼的角落,他對公司愿景的表述,做了些小小的修改,“我們預計需要調動大量資源來完成使命?!?br />
至此,曾經那個高度理想主義的OpenAI,漸漸踏入了另一條河流。
第一次分裂
2019年2月,OpenAI對外宣告了GPT-2,卻沒有第一時間對外開源。而后來的GPT-3,更徹底走向了閉源,OpenAI變成了CloseAI。
一個月后,OpenAI又改變了“非盈利”的性質,成立了一個營利部門,并接受了微軟10億美金的投資。
突然的180度大轉向,使得OpenAI內部開始分裂成兩個對立的派別:
以達里奧·阿莫迪、伊利亞為代表的安全主義,認為必須先確保AI不會威脅人類,再公開發(fā)布產品;
而以奧特曼、布羅克曼為代表的加速主義,則希望加速AI的普及,從而讓更多人使用AI造福世界。
從中可以看出,兩個派別的行事方式完全相反:
安全主義主張先驗證安全,再發(fā)布;而加速主義主張先擴大市場,再根據(jù)測試結果與反饋進行調整。
前些日子發(fā)布的GPT-4o,就是典型的加速主義做派。發(fā)布會之前,OpenAI匿名發(fā)布了性能強大的模型“im-also-a-good-gpt2-chatbot”,引起了開發(fā)者社區(qū)的廣泛猜測與討論。
事后證明,這模型就是GPT-4o的前身;而奧特曼故弄玄虛的目的,正是想讓吃瓜群眾幫他做測試。
隨著分歧加劇,2021年,安全主義者、曾想一起做點好事的達里奧·阿莫迪,引發(fā)了OpenAI的第一次分裂。他認為,OpenAI正從“勇者”變成“惡龍”,越來越商業(yè)化,忽視了安全主義。
于是,他帶領著一批核心員工出走,成立了另一家AI公司Anthropic。
阿莫迪將Anthropic定位成一家公益公司,這將使他們能夠同時追求商業(yè)利潤和社會責任。如今,Anthropic已成為OpenAI最大的競爭對手。
達里奧·阿莫迪的離職,在OpenAI內部造成了巨大動蕩,但奧特曼仍試著努力維持兩個派別的平衡。
直到ChatGPT的發(fā)布。
一種理想主義的失敗
ChatGPT是個臨時項目。
當時,OpenAI正全力開發(fā)GPT-4。然而,有傳聞稱,阿莫迪的Anthropic正在開發(fā)聊天機器人。于是,奧特曼臨時指派員工,給現(xiàn)有的GPT-3.5也打造一個聊天界面。
奧特曼將ChatGPT稱為“低調的研究預覽”,可以幫助OpenAI收集人類與AI交互的數(shù)據(jù)。
當時,OpenAI內部員工搞了個賭注池,猜1周內能獲得多少用戶,最大膽的賭注是10萬人[11]。
最終成績是100萬。
2個月后,這個“低調的研究預覽”,成為了歷史上最快突破1億用戶的應用程序。
兩個派別的平衡被徹底打破了。
一位內部員工對媒體說道,“ChatGPT誕生后,OpenAI有了獲取收入的明確途徑。你不能再用‘理想主義的實驗室’標榜自己了,現(xiàn)在就有顧客希望得到服務。[12]”
從學生時代開始,伊利亞就相信超級智能并不遙遠。隨著ChatGPT引發(fā)行業(yè)追逐,他對安全的焦慮變重了,與其他加速主義管理層的矛盾也日趨嚴重。
有人覺得他越來越神神叨叨,也有人覺得他開始更像一位精神領袖了。
2022年OpenAI的節(jié)日派對上,伊利亞開始帶著所有員工高喊,“feel the AGI(感受AGI)”。在其他許多不同場合,他也反復說過這句話——仿佛超級智能已經近在咫尺。
去年宮斗之前,伊利亞曾告訴一位記者,ChatGPT可能是有意識的,世界需要認識到這項技術真正的力量。
這位媒體同志不止見過伊利亞一次,對他的印象并不算好:每次見面,他都會說很多極其瘋狂的話[13]。
2023年7月,伊利亞啟動了“超級對齊”項目,發(fā)起了對加速主義的最后反抗。
在AI語境中,對齊(Alignment)并非某種黑話,而是一個專業(yè)術語,指讓前沿的AI系統(tǒng)與人類的意圖、價值觀對齊。然而,伊利亞認為,超級智能的智慧程度將遠超人類,人類智慧已經不足以拿來當衡量的標準。
他提到,當年的AlphaGo是個典型的例子。
它與李世石第二盤棋的第37手,下在了一個所有人都沒想到的位置。當時,連中國圍棋國手羋昱廷都在解說臺上驚呼,“這是什么鬼,沒擺錯嗎?”事后看來,這手棋恰恰是奠定AlphaGo勝局的關鍵。
連AlphaGo都如此捉摸不透,更遑論即將到來的超級智能。
因此,伊利亞拉上同事簡·雷克,成立了“超級對齊”團隊。工作內容很簡單:在4年之內打造一個強大的AI系統(tǒng),讓它代替人類智慧負責對齊工作,而OpenAI將為這個項目提供20%的算力。
只可惜,奧特曼并沒有給安全主義反抗的機會,沒有兌現(xiàn)20%算力的承諾。
去年年底,伊利亞射出的最后一顆子彈,也未能擊中要害。當伊利亞未能成功“刺殺國王”,他與OpenAI的結局就已經注定了。
尾聲
GPT-4o發(fā)布之后,奧特曼重申了修改后的公司愿景:
OpenAI使命的一部分,是將非常強大的AI工具免費(或以優(yōu)惠的價格)提供給人們。他在博客中寫道,“我們是一家企業(yè),很多東西需要收費,這將有助于我們向數(shù)十億人(希望如此)提供免費、出色的AI服務。[15]”
2016年時,《紐約客》曾發(fā)布了一篇關于奧特曼的特稿。
當時,奧特曼最主要的身份,還是YC的掌門人。實際采訪時,《紐約客》記者在奧特曼身上感受到了一種侵略性。
“他正在硅谷內迅速建立起一種新的經濟,這種經濟似乎旨在取代原本的硅谷。[9]”
如今,隨著OpenAI徹底告別伊利亞時代,奧特曼將繼續(xù)完成當年未竟的野心。
參考資料
[1] “I lost trust”: Why the OpenAI team in charge of safeguarding humanity imploded,Vox[2] Geoffrey Hinton | On working with Ilya, choosing problems, and the power of intuition,Sana[3] 深度學習革命,凱德·梅茨[4] NIPS: Oral Session 4 - Ilya Sutskever,Microsoft Research[5] Ego, Fear and Money: How the A.I. Fuse Was Lit,New York Times[6] Inside OpenAI, Elon Musk's Wild Plan to Set Artificial Intelligence Free,Wired[7] The messy, secretive reality behind OpenAI’s bid to save the world,MIT Technology Review[8] The secret history of Elon Musk, Sam Altman, and OpenAI,Semafor[9] Sam Altman’s Manifest Destiny,The New Yorker[10] AI researchers debate the ethics of sharing potentially harmful programs,The Verge[11] Inside the White-Hot Center of A.I. Doomerism,New York Times[12] Inside the Chaos at OpenAI,The Atlantic[13] Rogue superintelligence and merging with machines: Inside the mind of OpenAI’s chief scientist,MIT Technology Review[14] OpenAI Wants to Harness AI. It Should Pause Instead,The Information[15] GPT-4o,Sam Altman
編輯:李墨天
視覺設計:疏睿
責任編輯:李墨天