(取自Arxiv 頁面)
根據 Arxiv 頁面顯示,來自中國蘇州大學的一個研發團隊近日推出一款名為 OpenBA 的開源 seq2seq 模型。
據悉, OpenBA 是一款具有150億參數的雙語非對稱seq2seq模型,也是首個加入中國開源模型社區的大語言模型變體。
論文顯示,研究者採用高效的技術以及採用三階段的訓練策略,從頭開始訓練了OpenBA模型。
實驗顯示,OpenBA 在 BELEBELE 基準測試中的性能優於 LLaMA-70B,在 MMLU 基準測試中的性能優於 BLOOM-176B,在 C-Eval(hard)基準測試中的性能優於 GLM-130B。
本文為品玩授權刊登,原文標題為「蘇州大學推出開源大模型 OpenBA,具備150億參數」