《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 零一萬物發(fā)布千億參數(shù)閉源模型Yi-Large

零一萬物發(fā)布千億參數(shù)閉源模型Yi-Large

2024-05-14
來源:IT之家

5 月 13 日消息,,零一萬物創(chuàng)始人兼 CEO 李開復(fù)今日發(fā)布了千億參數(shù)閉源模型 Yi-Large,,他表示 Yi-Large 的多數(shù)指標(biāo)可對標(biāo)甚至是超越 GPT 4.0。該模型在斯坦福大學(xué)最新的 AlpacaEval 2.0 評估中,,全球大模型勝率(Win Rate)排第一,、文本長度誤差的勝率(LC Win Rate)排第二,。

1.png

同時零一萬物將早先發(fā)布的 Yi-34B、Yi-9B / 6B 中小尺寸開源模型版本升級為 Yi-1.5 系列,,每個版本達(dá)到同尺寸中 SOTA (State of the art model,,即在當(dāng)前研究中表現(xiàn)最好的模型)。

2.png

3.png

在不久之前,,零一萬物上線一站式 AI 工作平臺“萬知”,,其可用來制作會議紀(jì)要、周報,、解讀財報或論文,、制作 PPT 等,也可以當(dāng)作“寫作助手”來使用,。

4.png

李開復(fù)還表示,,大模型推理成本的下降會推動中國 AI 大模型進(jìn)入落地為王的階段,今年會迎來“大模型應(yīng)用爆發(fā)元年”,。


Magazine.Subscription.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點(diǎn)。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,,避免給雙方造成不必要的經(jīng)濟(jì)損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。