11月5日消息,,騰訊今日宣布推出業(yè)界參數(shù)規(guī)模最大、效果最好的開源MoE大語(yǔ)言模型Hunyuan-Large,。
Huanyuan-large模型的總參數(shù)量為389B,、激活參數(shù)為52B、訓(xùn)練token數(shù)量為7T、最大上下文長(zhǎng)度為256K,、詞表大小為12.8w,。
在技術(shù)創(chuàng)新方面,Hunyuan-large通過(guò)高質(zhì)量的合成數(shù)據(jù)來(lái)增強(qiáng)模型訓(xùn)練,,彌補(bǔ)了自然數(shù)據(jù)的不足,。
其中,該模型預(yù)訓(xùn)練支持處理高達(dá)256K的文本序列,,大幅提升了長(zhǎng)文本上下文的處理能力,,能夠更高效地完成長(zhǎng)文本任務(wù)。
據(jù)了解,,Hunyuan-large在CMMLU,、MMLU、CEva1,、MATH等多學(xué)科綜合評(píng)測(cè)集上表現(xiàn)優(yōu)異,,在中英文自然語(yǔ)言處理、代碼生成,、數(shù)學(xué)運(yùn)算等9大能力維度中全面領(lǐng)先,,超越了Llama3.1和Mixtral等一流開源模型。
此外,,騰訊還宣布將推出自研的長(zhǎng)文評(píng)測(cè)集“企鵝卷軸(PenguinScrolls)”,,以填補(bǔ)行業(yè)在真實(shí)長(zhǎng)文評(píng)測(cè)集上的空白。
企鵝卷軸基于公開的金融,、法律,、學(xué)術(shù)論文等長(zhǎng)文本構(gòu)建,文本長(zhǎng)度從1K到128K不等,,覆蓋深度閱讀理解和長(zhǎng)文推理任務(wù),。