近期,英偉達與Hugging Face及ServiceNow攜手推出新品StarCoder2系列LLMs模型,致力于在代碼生成領域建立新的行業標桿,憑借諸多優勢凸顯性能、透明度以及經濟性。
此系列共包含三款模型,其中ServiceNow負責訓練的30億參數模型、Hugging Face訓練的70億參數模型以及英偉達訓練的150億參數模型。
新一代模型得以實現,借助Stack v2代碼集,該數據集容量是上一代Stack v1的7倍之多。此外,創新性的訓練技術使其能夠更精準地解析低資源編程語言、數學和程序源代碼討論等內容。
經過619門編程語言的訓練后,StarCoder2支持多種專業任務,例如源代碼生成、工作流創建以及文本摘要等。英偉達承諾,開發者可借此進行代碼填充、高層次代碼摘要以及代碼片段搜索等操作,以提升工作效率。
相比初版StarCoder LLM,這款30億參數的最新模型對優質參數進行了更為精確的篩選,性能相當于初版150億參數模型的StarCoder。
特別值得關注的是,StarCoder2特許使用BigCode Open RAIL-M許可證,無需支付任何版權費用即可享受使用權。IT之家建議有需用戶前往BigCode項目GitHub頁面下載源代碼,同時亦可在Hugging Face獲取模型信息。
-
編程語言
+關注
關注
10文章
1942瀏覽量
34707 -
數據集
+關注
關注
4文章
1208瀏覽量
24689 -
英偉達
+關注
關注
22文章
3770瀏覽量
90988
發布評論請先 登錄
相關推薦
評論