今日,微軟發布官方聲明,稱其開發的 Phi-2 2.7B 模型在多項指標上超過了 Google 的 Gemini Nano-2 3.2B 模型。
Microsoft研發的Phi-2 2.7B模型
早前在 IT之家的報道中,微軟在Ignite 2023大會上首次披露了容納27億參數的Phi-2,在性能上較以往型號有明顯進步。
去年六月份,微軟推出了包含13億參數的Phi-1,主要應用于QA 問答、文本處理等領域。該模型使用大量高質量數據進行訓練,在基準測試中的表現甚至超過同類模型十倍以上。
今年九月份,微軟又進一步推出了Phi-1.5版,盡管依舊僅含13億元參數,但已可創作詩歌、電子郵件及故事,甚至可以對大量文本進行總結概括。在常識、語言理解以及推理的基準測試中,該版本的模型在部分領域已經可以媲美甚至超越含有高達100億參數的同類模型。
現如今,Phi-2的出現,使其所包含的參數數量達到驚人的27億,盡管與其他大型語言模型相比仍顯不足,它卻在邏輯推理和系統安全性能上展現出不容忽視的提升。通過適當的調整和定制化,小型的語言模型將成為云和邊緣應用的得力助手。
Google研發的Gemini Nano-2 3.2B模型
針對面向小型設備本地操作設計的Gemini Nano,新升級的2.0版本有著高達32億的參數,預計將首先配置在Pixel 8 Pro手機上。
就錄音功能而言,選擇所需的音頻文件后,用戶只需點擊“文本稿”標簽,再點選上方的“總結”按鈕,該應用便能迅速生成完整的主旨簡報。
而在用戶最為依賴的Gboard輸入法中,Gemini Nano的加入將極大程度提高交互的自然度,未來包括WhatsApp在內的眾多應用將會逐步引入這一更加人性化的功能。
-
微軟
+關注
關注
4文章
6591瀏覽量
104027 -
模型
+關注
關注
1文章
3229瀏覽量
48811 -
語言模型
+關注
關注
0文章
521瀏覽量
10268
發布評論請先 登錄
相關推薦
評論