近日,騰訊公司宣布成功推出業界領先的開源MoE(Mixture of Experts,專家混合)大語言模型——Hunyuan-Large。這款模型不僅在參數量上刷新了業界紀錄,更在效果上展現出了卓越的性能,標志著騰訊在自然語言處理領域邁出了重要的一步。
據了解,Hunyuan-Large的總參數量高達389B(即3890億),這一數字遠超當前許多主流的大語言模型。而其激活參數也達到了驚人的52B(即520億),這意味著模型在處理復雜任務時能夠展現出更強的學習能力和泛化性能。
除了參數量上的優勢,Hunyuan-Large在訓練數據上也下足了功夫。據悉,該模型訓練時所使用的token數量達到了7T(即7萬億),這確保了模型能夠充分學習到語言的多樣性和復雜性。同時,Hunyuan-Large還支持最大上下文長度為256K的文本輸入,這一特性使得模型在處理長文本或對話場景時能夠更準確地捕捉上下文信息,從而生成更加連貫和自然的回復。
騰訊此次推出的Hunyuan-Large大語言模型,不僅展示了其在人工智能領域的深厚技術積累,也為整個自然語言處理領域的發展注入了新的活力。
-
人工智能
+關注
關注
1791文章
47183瀏覽量
238260 -
騰訊
+關注
關注
7文章
1652瀏覽量
49423 -
語言模型
+關注
關注
0文章
520瀏覽量
10268 -
自然語言
+關注
關注
1文章
287瀏覽量
13346
發布評論請先 登錄
相關推薦
評論