與 BigCode 社區(qū)共同創(chuàng)建的 StarCoder2 是在 600 多種編程語言上訓練而成,它將推進代碼生成、透明度、治理和創(chuàng)新
ServiceNow(NYSE:NOW)、Hugging Face 和 NVIDIA 于今日發(fā)布 StarCoder2,其為一系列用于代碼生成的開放獲取大語言模型(LLM),將為性能、透明度和成本效益樹立新標準。
StarCoder2 的聯(lián)合開發(fā)者 BigCode 社區(qū)是由 ServiceNow 和 Hugging Face 共同管理。前者是一家領先的數(shù)字工作流公司,致力于為每個人創(chuàng)造更好的工作環(huán)境;后者則是最常用的開源平臺,機器學習社區(qū)在該平臺上就模型、數(shù)據(jù)集和應用程序開展合作。
在 619 種編程語言上訓練而成的 StarCoder2,可接受進一步的訓練并嵌入到企業(yè)應用中,以執(zhí)行應用源代碼生成、工作流生成、文本摘要等特定任務。開發(fā)者可以使用它的代碼補全、高級代碼摘要、代碼片段檢索等功能,加快創(chuàng)新速度及提高工作效率。
StarCoder2 提供三種規(guī)模的模型:由 ServiceNow 訓練的 30 億參數(shù)模型、由 Hugging Face 訓練的 70 億參數(shù)模型,以及由 NVIDIA 使用 NVIDIA NeMo 構建并在 NVIDIA 加速基礎設施上訓練的 150 億參數(shù)模型。規(guī)模較小的模型由于參數(shù)較少,在推理過程中所需的計算量較少,可在提供強大性能的同時節(jié)省計算成本。實際上,新的 30 億參數(shù)模型在性能上與原有的 StarCoder 150 億參數(shù)模型不相上下。
ServiceNow 的 StarCoder2 開發(fā)團隊負責人兼 BigCode 聯(lián)合負責人 Harm de Vries 表示: “StarCoder2 證明了將開放式科學協(xié)作和負責任的 AI 實踐與道德數(shù)據(jù)供應鏈相結合所產生的力量。這一極其先進的開放獲取模型將提高已有生成式 AI 的性能和開發(fā)者的生產力,為開發(fā)者提供平等的機會,獲得代碼生成式 AI 的優(yōu)勢。這使任何規(guī)模的企業(yè)都能更加輕松地激發(fā)其全部業(yè)務潛力?!?/p>
Hugging Face 機器學習工程師兼 BigCode 聯(lián)合負責人 Leandro von Werra 表示: “在 Hugging Face、ServiceNow 和 NVIDIA 的共同努力下,這套功能強大的基礎模型終于問世。在數(shù)據(jù)和訓練完全透明的情況下,社區(qū)能夠更加高效地構建各種應用。StarCoder2 證明了開源和開放式科學的潛力,我們正在努力實現(xiàn)負責任 AI 的全民化?!?/p>
NVIDIA 應用研究副總裁 Jonathan Cohen 表示: “由于每個軟件生態(tài)系統(tǒng)都有專門的編程語言,代碼 LLM 可以推動各行業(yè)效率和創(chuàng)新方面的突破。NVIDIA 與 ServiceNow 和 Hugging Face 的合作帶來了安全且負責任的模型,讓更多人能夠用上負責任的生成式 AI,我們相信這將使全球社區(qū)受益?!?/p>
StarCoder2 模型為自定義應用開發(fā)增添強大助力
StarCoder2 模型均使用來自 BigCode 的先進架構和精心挑選的數(shù)據(jù)源。為了實現(xiàn)負責任的大規(guī)模創(chuàng)新,數(shù)據(jù)源的透明度和開放治理被放在第一位。
StarCoder2 提升了未來由 AI 驅動的編碼應用的潛力,包括各種文本-代碼和文本-工作流轉換功能。通過更加廣泛、深入的編程訓練,它可以提供資源庫上下文,從而實現(xiàn)準確的上下文感知預測。無論是經驗豐富的軟件工程師還是業(yè)余開發(fā)者等,都能利用這些進步提升業(yè)務價值和推動數(shù)字化轉型。
StarCoder2 的基礎是一個名為 Stack v2 的新代碼數(shù)據(jù)集,該數(shù)據(jù)集規(guī)模比 Stack v1 大 7 倍多。除了先進的數(shù)據(jù)集之外,新的訓練技術也有助于模型理解低資源編程語言(如 COBOL 等)、數(shù)學和程序源代碼討論。
使用特定業(yè)務數(shù)據(jù)對先進功能進行微調 用戶可以使用 NVIDIA、NeMo 或 Hugging Face TRL 等開源工具,利用特定行業(yè)或組織的數(shù)據(jù),對開放獲取的 StarCoder2 模型進行微調??梢詣?chuàng)建高級聊天機器人來處理更復雜的摘要或分類任務、開發(fā)能夠快速且輕松地完成編程任務的個性化編碼助手、檢索相關代碼片段,并實現(xiàn)文本-工作流轉換功能。
為創(chuàng)建適合自身業(yè)務的特定任務功能,各企業(yè)已經開始對 StarCoder 基礎模型進行微調。
ServiceNow 的文本-代碼 Now LLM 就是在 150 億參數(shù) StarCoder LLM 的專用版本上構建而成的,并針對其工作流模式、用例和流程進行了微調和訓練。Hugging Face 也使用該模型創(chuàng)建了自己的 StarChat 助手。
BigCode 促進 AI 領域的開放式科學協(xié)作
BigCode 是一個由 Hugging Face 和 ServiceNow 領導的開放式科學協(xié)作社區(qū),致力于負責任的代碼 LLM 開發(fā)。
BigCode 社區(qū)以工作組和特別任務組的形式積極參與 StarCoder2 項目的技術工作,分別使用 ServiceNow 的 Fast LLM 框架來訓練 30 億參數(shù)模型、使用 Hugging Face 的 nanotron 框架來訓練 70 億參數(shù)模型,以及 NVIDIA NeMo 云原生框架和 NVIDIA TensorRT-LLM 軟件來訓練和優(yōu)化 150 億參數(shù)模型。
BigCode 的核心宗旨是促進負責任的創(chuàng)新,其開放的治理、透明的供應鏈、開源軟件的使用,以及讓開發(fā)者選擇數(shù)據(jù)不用于訓練等做法都體現(xiàn)了這一點。StarCoder2 是在獲得 Inria 托管的 Software Heritage 數(shù)字共享許可下,使用負責任的數(shù)據(jù)構建而成的。
Software Heritage 總監(jiān) Roberto Di Cosmo 表示: “StarCoder2 是首個使用 Software Heritage 源代碼存檔開發(fā)的代碼生成式 AI 模型,其構建方式符合我們負責任地開發(fā)代碼模型的政策。ServiceNow、Hugging Face 和 NVIDIA 的這一合作體現(xiàn)了對道德 AI 開發(fā)的共同承諾,引領技術朝著更崇高的利益發(fā)展?!?/p>
StarCoder2 與其前代一樣,將在 BigCode Open RAIL-M 許可下免費提供訪問和使用。為進一步促進透明度和協(xié)作,該模型的支持代碼將繼續(xù)保留在 BigCode 項目的 GitHub 頁面上。
所有 StarCoder2 模型還可以在 Hugging Face 上下載。StarCoder2 150 億參數(shù)模型通過 NVIDIA AI Foundation 模型提供,開發(fā)者可以直接在瀏覽器上或通過 API 端點進行試用。