《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動(dòng)態(tài) > 阿里通義Qwen2成斯坦福大模型榜單最強(qiáng)開源模型

阿里通義Qwen2成斯坦福大模型榜單最強(qiáng)開源模型

2024-06-20
來源:C114通信網(wǎng)
關(guān)鍵詞: 通義千問 Qwen2 開源大模型

6月20日消息,,斯坦福大學(xué)的大模型測評榜單HELM MMLU發(fā)布最新結(jié)果,斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang發(fā)文表示,,阿里通義千問Qwen2-72B模型成為排名最高的開源大模型,,性能超越Llama3-70B模型,。

MMLU(Massive Multitask Language Understanding,大規(guī)模多任務(wù)語言理解)是業(yè)界最有影響力的大模型測評基準(zhǔn)之一,,涵蓋了基礎(chǔ)數(shù)學(xué),、計(jì)算機(jī)科學(xué)、法律,、歷史等57項(xiàng)任務(wù),,用以測試大模型的世界知識和問題解決能力。但在現(xiàn)實(shí)測評中,,不同參評模型的測評結(jié)果有時(shí)缺乏一致性,、可比性,原因包括使用非標(biāo)準(zhǔn)提示詞技術(shù),、沒有統(tǒng)一采用開源評價(jià)框架等等,。

斯坦福大學(xué)基礎(chǔ)模型研究中心(CRFM,Center for Research on Foundation Models)提出的基礎(chǔ)模型評估框架HELM(A holistic framework for evaluating foundation models),,旨在創(chuàng)造一種透明,、可復(fù)現(xiàn)的評估方法。該方法基于HELM框架,,對不同模型在MMLU上的評估結(jié)果進(jìn)行標(biāo)準(zhǔn)化和透明化處理,,從而克服現(xiàn)有MMLU評估中存在的問題。比如,,針對所有參評模型,,都采用相同的提示詞;針對每項(xiàng)測試主題,,都給模型提供同樣的5個(gè)示例進(jìn)行情境學(xué)習(xí),,等等。

日前,,斯坦福大學(xué)基礎(chǔ)模型研究中心主任Percy Liang在社交平臺發(fā)布了HELM MMLU最新榜單,,阿里巴巴的通義千問開源模型Qwen2-72B排名第5,僅次于Claude 3 Opus,、GPT-4o,、Gemini 1.5 pro,、GPT-4,是排名第一的開源大模型,,也是排名最高的中國大模型,。

據(jù)悉,通義千問Qwen2于6月初開源,,包含5個(gè)尺寸的預(yù)訓(xùn)練和指令微調(diào)模型,,目前Qwen系列模型下載量已經(jīng)突破1600萬。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時(shí)通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。