大模型是“大算力+強算法”的產(chǎn)物,是人工智能發(fā)展的趨勢和未來。大模型助力AI實現(xiàn)從“手工作坊”到“工廠模式”的轉(zhuǎn)變,從而使得AI從實驗室走向規(guī)模化的產(chǎn)業(yè)應(yīng)用。大模型通?;诖笠?guī)模無標注數(shù)據(jù)進行訓(xùn)練,掌握某種特征和規(guī)則;基于大模型進行應(yīng)用開發(fā)時,將大模型進行微調(diào),或者不進行微調(diào),就可以完成多個應(yīng)用場景的任務(wù)。與此同時,大模型具有自監(jiān)督學(xué)習(xí)能力,不需要或很少需要通過人工標注的數(shù)據(jù)進行訓(xùn)練,降低了訓(xùn)練成本,因而能夠加快AI的產(chǎn)業(yè)化進程,降低AI應(yīng)用的門檻。通過不斷迭代,大模型能夠具有更強的通用性以及更高的智能程度,從而使得AI更廣泛地賦能各行業(yè)應(yīng)用。
ChatGPT掀起通用人工智能浪潮
2019年,OpenAI推出參數(shù)量高達15億的通用語言模型GPT-2,能夠生成連貫的文本段落,實現(xiàn)初步的閱讀理解、機器翻譯等。2020年,OpenAI推出超大規(guī)模語言訓(xùn)練模型GPT-3,參數(shù)量達到了1750億,用兩年左右的時間實現(xiàn)了模型規(guī)模從億級到千億級的突破,并能夠?qū)崿F(xiàn)作詩、聊天、生成代碼等功能。2021年1月,谷歌推出的Switch Transformer模型以高達1.6萬億的參數(shù)量成為史上首個萬億級語言模型。同年12月,谷歌還推出了1.2萬億參數(shù)量的通用稀疏語言模型GLaM??梢钥吹?,大型語言模型的參數(shù)量保持著指數(shù)級增長的勢頭。2022年,OpenAI推出的ChatGPT是由比GPT-3更強大的GPT-3.5系列模型提供支持,并且這些模型使用微軟AzureAI超級計算基礎(chǔ)設(shè)施上的文本和代碼數(shù)據(jù)進行訓(xùn)練。
2022年,ChatGPT突然走紅,這是人工智能大規(guī)模展示通用應(yīng)用場景的開始。在此基礎(chǔ)上,生成式人工智能(AIGC)成為了推動行業(yè)領(lǐng)域發(fā)展的重要力量。AIGC既是內(nèi)容的分類方式和生產(chǎn)方式,又是用于內(nèi)容自動生成的一類技術(shù)集合,AIGC帶動了LLM、GPT等大模型的發(fā)展應(yīng)用,為人工智能產(chǎn)業(yè)帶來了新的變革機會。
大模型與AIGC為人工智能領(lǐng)域帶來了新變化。從當(dāng)前大模型的發(fā)展趨勢看,大模型企業(yè)更傾向于搭建平臺,對傳統(tǒng)企業(yè)進行賦能。具體而言,大模型企業(yè)憑借對組織型用戶“痛點”的了解,搭建大模型平臺,而組織型用戶只需加入自己獨有的場景數(shù)據(jù),即可快速生成解決自身問題的“專屬模型”。不過,這種提供定制解決方案的模式也面臨開源模式帶來的挑戰(zhàn)。
LLaMA2開源改變大模型游戲規(guī)則
ChatGPT發(fā)布后,Meta緊跟著推出了類GPT大語言模型LLaMA。模型公布后不久,LLaMA因為源碼泄露引來了大量開發(fā)者的關(guān)注,在ChatGPT熱度下降的情況下,LLaMA成為產(chǎn)業(yè)關(guān)注的“新寵”。
2023年前5個月,ChatGPT全球訪問量增長幅度明顯下降,6月的訪問量更是環(huán)比下滑9.7%,為其自推出以來首次大幅度下滑。7月,Meta發(fā)布首個開源人工智能模型LLaMA的商業(yè)版本LLaMA2,該商用大模型可為企業(yè)提供OpenAI和谷歌的替代方案,該模型也因此被視為“最強平替”。需要特別說明的是,LLaMA2運行在Windows操作系統(tǒng)之上,整合了Azure云,原本與OpenAI長期深入合作的微軟已成為LLaMA2的“首選合作伙伴”。
Meta針對LLaMA2的開源模式做了如下表述:“我們相信,開源的方法是當(dāng)今人工智能模型發(fā)展的正確途徑,尤其是在技術(shù)進步日新月異的生成式人工智能領(lǐng)域?!蓖ㄟ^開源的方式吸引足夠的參與者,從而搭建一套完善的生態(tài)系統(tǒng),是Meta這類互聯(lián)網(wǎng)企業(yè)的一貫作風(fēng),但對于已投入大量成本而期望采用定制化解決方案的玩家而言,卻不是什么好消息。
Meta的操作讓人聯(lián)想到Facebook的開源計算項目OCP,該項目被用于改變服務(wù)器硬件的制造方式,以更好地適應(yīng)互聯(lián)網(wǎng)時代。OCP除了對應(yīng)的機架規(guī)范Open Rack,還包括服務(wù)器、網(wǎng)絡(luò)、存儲,乃至數(shù)據(jù)中心的設(shè)計。OCP被視為Facebook最為重要的科技項目之一,旨在把“開源”概念引入數(shù)據(jù)中心硬件,為數(shù)據(jù)中心提供更快、更便宜、用材更少的硬件。
OCP的開放性體現(xiàn)在免費提供設(shè)計,任何企業(yè)都可以使用它,并對其進行調(diào)整,這意味著,惠普、戴爾和思科這類傳統(tǒng)硬件供應(yīng)商將不再控制產(chǎn)品設(shè)計,取而代之是由用戶自己控制。這給思科等硬件制造市場的老玩家?guī)砹撕艽笸{,因為OCP很有可能為企業(yè)提供更便宜、更靈活的替代方案,從而淘汰傳統(tǒng)的昂貴方案。微軟、蘋果等科技巨頭都加入了OCP陣營,開始把OCP的一些概念整合到自身的數(shù)據(jù)中心,形成新的生態(tài)。Facebook也通過構(gòu)建在OCP基礎(chǔ)上的各種技術(shù),大大減少了對“思科們”的依賴。
LLaMA2的開源模式可能會影響OpenAI等公司在生成式人工智能軟件市場中取得的早期主導(dǎo)地位。因為Meta意在借助LLaMA2構(gòu)建人工智能開源生態(tài)系統(tǒng),快速擴大其市場規(guī)模并建立口碑,同時阻礙競爭對手從其專有技術(shù)中賺取收入。
Apple GPT入局,前路未知
在Meta、微軟、OpenAI等公司各出奇招的同時,以封閉系統(tǒng)作為競爭優(yōu)勢的Apple等公司也在借助Siri等人機交互觸點的優(yōu)勢向上游拓展。近期,業(yè)內(nèi)傳出Apple秘密研發(fā)Apple GPT的消息。
據(jù)了解,Apple GPT是一款基于蘋果自研Ajax框架開發(fā)的人工智能工具,這一產(chǎn)品已在蘋果內(nèi)部小范圍內(nèi)投入使用。與其他解決方案不同的是,目前Apple尚未決定Apple GPT未來的開發(fā)方向,甚至嚴格規(guī)定了Apple GPT的使用場景,禁止將其輸出用于開發(fā)面向用戶的功能。這體現(xiàn)了不同企業(yè)對大模型市場發(fā)展的不同理解和判斷,同時也體現(xiàn)了“利用大模型做未來物聯(lián)網(wǎng)入口的可能性和交互能力的升級”這種定位和發(fā)展方向的選擇。
大模型時代的人工智能倫理風(fēng)險
開源大模型將加速人工智能市場的應(yīng)用拓展,但與此同時,人工智能哲學(xué)尤其是科技倫理方面的爭議甚囂塵上,大模型的可靠性、安全性、知識產(chǎn)權(quán)等也成為了產(chǎn)業(yè)亟待解決的新課題。大模型目前還面臨較大的挑戰(zhàn),包括大模型“幻覺”、“一本正經(jīng)地胡說八道”、政企私有數(shù)據(jù)的保密性要求、大模型存在封閉性等,同時信息壟斷、知識產(chǎn)權(quán)等問題也不容忽視。
知識可靠性及信息誤導(dǎo)等問題
ChatGPT不能保證回答問題的可靠性和準確性,對于“如果相同的問題在不同時間問你有不同的結(jié)果,我怎么知道哪一個比較可信,或者哪一個更為接近真相”這個問題時,ChatGPT給出了如下答復(fù):“作為一種人工智能系統(tǒng),我是基于一組固定的算法和數(shù)據(jù)運行的,并且在回答問題時會遵循程序化的邏輯。因此,如果對同一個問題多次詢問,答案應(yīng)該是一致的,除非模型的數(shù)據(jù)或算法發(fā)生了更改。不過,即使我的回答是一致的,也不能完全保證答案的正確性和可靠性,因為我的訓(xùn)練數(shù)據(jù)和算法可能存在偏見或錯誤,我并不能獨立判斷我回答的問題是否符合真實情況?!?/p>
ChatGPT要學(xué)習(xí)大量的文本數(shù)據(jù),并以特定的算法處理數(shù)據(jù),因此可通過提供誤導(dǎo)性訓(xùn)練數(shù)據(jù)或者改變算法,操控處理結(jié)果。也就是說,我們不能準確理解作為“黑盒”的數(shù)據(jù)處理模型,以及信任ChatGPT采用的訓(xùn)練數(shù)據(jù)集的“權(quán)威性”,即便在一個我們熟悉的領(lǐng)域,細微的差別也可能導(dǎo)致巨大的結(jié)論偏差。
從知識可靠性的角度看,知識應(yīng)用的場景需要非常謹慎,尤其是在學(xué)術(shù)研究領(lǐng)域,必須嚴格限制ChatGPT信息的引用。
信息壟斷問題
如果模型的使用和控制都是不透明的,就有可能出現(xiàn)信息壟斷。信息壟斷是指一個或一些組織及個人控制著信息的生產(chǎn)、流通和使用,從而有效地排除競爭。因此,如果行業(yè)不采用透明公開的方式去評估和監(jiān)督使用信息,那么就可能存在信息壟斷的風(fēng)險。
知識產(chǎn)權(quán)問題
ChatGPT由OpenAI訓(xùn)練,數(shù)據(jù)集是從互聯(lián)網(wǎng)上收集來的大量文本數(shù)據(jù),包含新聞報道、維基百科條目、小說、博客、論壇帖子、技術(shù)文檔、社交媒體內(nèi)容等信息,這些數(shù)據(jù)可能存在著作權(quán)侵權(quán)的風(fēng)險。
具體而言,OpenAI嘗試遵循合法、道德的原則來獲取數(shù)據(jù),但并不能保證所有數(shù)據(jù)的著作權(quán)擁有者都同意OpenAI將其數(shù)據(jù)用來訓(xùn)練語言模型。風(fēng)險在于數(shù)據(jù)的處理結(jié)果是構(gòu)建在未經(jīng)授權(quán)的第三方經(jīng)驗之上,而通過這些經(jīng)驗獲得的價值并沒有與第三方共享,或者說他們甚至都沒有意識到自己的數(shù)據(jù)被使用。在現(xiàn)實世界中肖像權(quán)被侵犯是比較明顯的,在數(shù)字世界中經(jīng)過多重加工以后,這樣的侵權(quán)行為就不是那么明顯。
在現(xiàn)實世界中可能會出現(xiàn)這樣的情況:ChatGPT的回答可能無意之間引用了作者聲明需要分享商業(yè)收益的內(nèi)容,在不知情的情況下侵犯了作者的知識產(chǎn)權(quán)。此外,經(jīng)過復(fù)雜的模型處理之后,文本的所有者可能很難知道ChatGPT對他的資產(chǎn)進行了處理,也就是說,盡管理論上文本的所有者可以去維權(quán),但實踐成本會非常高。
針對這個問題,ChatGPT是這樣回應(yīng)的:“確實存在難以識別使用者行為的問題。不過我是一個由OpenAI制作并管理的計算機程序,并且OpenAI是一個認真對待知識產(chǎn)權(quán)和隱私的公司,他們遵循相關(guān)法律法規(guī),努力確保這些法律法規(guī)在用戶使用我的過程中得到遵循。當(dāng)然,如果您發(fā)現(xiàn)有任何違反知識產(chǎn)權(quán)的情況,建議您及時聯(lián)系OpenAI,以幫助他們解決問題?!?/p>
能否用于解決具有創(chuàng)造性的問題
這個問題看起來更像是一個人工智能的哲學(xué)問題??茖W(xué)發(fā)展的傳統(tǒng)看法是:科學(xué)知識是不斷增加的,發(fā)展是一個直線的、知識積累的過程。這是為大多數(shù)人所接受的科學(xué)發(fā)展觀,也是ChatGPT體現(xiàn)出來的知識“歸納”,其文字編碼的概率讓結(jié)果體現(xiàn)出這樣的特征。波普證偽主義強調(diào)的不是知識的積累,而是科學(xué)理論的更替,舊理論不斷被推翻,新理論取而代之。
大模型帶來了強大的智能,能夠推動人工智能向更高級的智能應(yīng)用邁進,例如AIGC、更智能的對話客服等。GPT-3等大模型在新聞文本生成、商業(yè)文本分析、法律文本分析等領(lǐng)域具有較高的產(chǎn)業(yè)應(yīng)用價值。除問答以外,ChatGPT能夠完成編程、寫稿等眾多超出人們想象的任務(wù)。谷歌公司曾表示:“如果ChatGPT參加谷歌的面試,理論上會得到入門級程序員的聘任。因此,更為關(guān)鍵的是我們怎么理解‘創(chuàng)造性’這個詞的含義。”
結(jié)語
無論如何,大模型僅僅是生成式人工智能大規(guī)模商用的前奏,許多領(lǐng)域的企業(yè)都在嘗試將大模型能力與自身的優(yōu)勢、定位和戰(zhàn)略發(fā)展方向結(jié)合起來。無論是從打造難以被模仿的技術(shù)優(yōu)勢、大模型能力與復(fù)雜場景結(jié)合構(gòu)建更強的解決方案能力、借助開源模式降低大模型使用門檻形成規(guī)?;瘔艛?,還是借助傳統(tǒng)的觸點優(yōu)勢進一步提升終端用戶的體驗,市場上不同的玩家都在根據(jù)自身的理解嘗試定義大模型的未來。而在通向未來的道路上,大模型將比其他領(lǐng)域面臨更多的倫理、法律、道德方面的難題,這也是大模型企業(yè)在打造市場競爭力的同時,面臨的新課題。
*本文刊載于《通信世界》總第927期 2023年9月10日 第17期
原文標題:《國外大模型發(fā)展分析》
作者:云晴
責(zé)編/版式:王禹蓉
審核:舒文瓊
監(jiān)制:劉啟誠