《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 阿里云Qwen全新推理模型僅1/21參數(shù)媲美DeepSeek R1

阿里云Qwen全新推理模型僅1/21參數(shù)媲美DeepSeek R1

2025-03-06
來源:快科技
關(guān)鍵詞: 阿里云 Qwen Deepseek

3月6日消息,,阿里Qwen團隊正式發(fā)布他們最新的研究成果——QwQ-32B大語言模型,。

這是一款擁有320億參數(shù)的模型,,其性能可與具備6710億參數(shù)(其中370億被激活)的DeepSeek-R1媲美。

QwQ-32B在僅有DeepSeek-R1約1/21參數(shù)量的情況下,,用強化學習實現(xiàn)了性能上的跨越,。

此外,,阿里還在推理模型中集成了與Agent相關(guān)的能力,,使其能夠在使用工具的同時進行批判性思考,,并根據(jù)環(huán)境反饋調(diào)整推理過程,。

0.png

QwQ-32B 在一系列基準測試中進行了評估,,測試了數(shù)學推理,、編程能力和通用能力。

其中,,在測試數(shù)學能力的AIME24評測集上,,以及評估代碼能力的LiveCodeBench中,千問QwQ-32B表現(xiàn)與DeepSeek-R1相當,,遠勝于o1-mini及相同尺寸的R1 蒸餾模型,。

同時,在由Meta首席科學家楊立昆領(lǐng)銜的“最難LLMs評測榜”LiveBench,、谷歌等提出的指令遵循能力IFEval評測集,、由加州大學伯克利分校等提出的評估準確調(diào)用函數(shù)或工具方面的BFCL測試中,千問QwQ-32B的得分均超越了DeepSeek- R1,。

目前,,QwQ-32B已在Hugging Face和ModelScope開源,大家也可通過Qwen Chat直接進行體驗,!


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]