英偉達(dá)暴跌了,。
4月19日一開盤,,英偉達(dá)遭遇2024年以來最大規(guī)模的股票恐慌性拋售,,最終出現(xiàn)股價下跌10%,,市值消失1.5萬億人民幣的悲劇,。
更關(guān)鍵的是,,海外部分AI玩家燒不起錢了,,尤其是那些基于llama 2和3開源模型的公司,用的transformer架構(gòu),,成本太貴,。再加上一些悄悄研發(fā)自己大模型的廠商(比如蘋果)也開始撤出。這些信息的疊加,,引發(fā)機(jī)構(gòu)投資者對完全依靠資源堆積的大模型發(fā)展模式感到擔(dān)憂,,最終導(dǎo)致英偉達(dá)股價下跌。
富國銀行分析師萊恩.克里對外表示,,英偉達(dá)出現(xiàn)恐慌式拋售不奇怪,,“資本市場在進(jìn)入2024年后,其實(shí)一直對AI硬件股票小心謹(jǐn)慎,。原因在于大家覺得一方面他們估值過高,,另一方面其實(shí)是目前主流的幾家大模型,都沒有找到可持續(xù)的變現(xiàn)途徑,,支撐不起龐大且長期不變的硬件投入,。”
實(shí)際上,,這已經(jīng)成為資本市場的共同認(rèn)知。所以,對于這幾家AI硬件龍頭股票,,機(jī)構(gòu)投資者在進(jìn)入2024年后,,都視作是一場“擊鼓傳花”游戲。
當(dāng)然,,資本也開始對新的技術(shù)模式展開探討,,比如MoE專家網(wǎng)絡(luò)以及去二次方大模型架構(gòu)等等。尤其是MoE,,因為技術(shù)的可持續(xù)性,,被認(rèn)為是下階段大模型發(fā)展破局的突破口,資金開始瘋狂進(jìn)入,。
于是,,行業(yè)產(chǎn)生一系列問題需要回答:這到底是怎么發(fā)生的?大模型還有未來嗎?未來又在哪里?MoE是什么?誰能代表MoE扛起AI大旗?
1.巨頭的無奈
為什么大家開始認(rèn)為以英偉達(dá)算力芯片為核心的AI硬件,變成擊鼓傳花的游戲?原因就在于英偉達(dá)每升級一個版本,,其相關(guān)芯片的價格就會暴漲幾倍,。
英偉達(dá)A100算力芯片在中國市場備受矚目,2021年上市后大規(guī)模出口中國,,成為AI和大模型應(yīng)用的基礎(chǔ)算力,。初期定價為3000-5000美元,隨后價格上漲至8000美元,。
2022年底,,美國禁令限制向中國出口A100,導(dǎo)致定制版A800價格飆升至10000美元以上,。英偉達(dá)隨后發(fā)布的H100芯片起售價接近2萬美元,,而GB200芯片組起售價在3-4萬美元。
在國外社交媒體上,,有人戲稱英偉達(dá)“技術(shù)進(jìn)步以漲價為本”,。
其實(shí)英偉達(dá)有自己的無奈,中國市場頂峰時曾占英偉達(dá)1/4的份額,,目前因為政治因素已經(jīng)下降到不到4%,,這中間巨大的市場缺失不得不通過新產(chǎn)品漲價來彌補(bǔ)。
但不斷上漲的算力芯片價格,,也讓那些開發(fā)大模型的互聯(lián)網(wǎng)巨頭開始吃不消,。
當(dāng)下最主要的這些互聯(lián)網(wǎng)巨頭推出的模型,大部分使用的都是transformer模型架構(gòu),。而這個架構(gòu)是2017年由Google團(tuán)隊在論文《Attention Is All You Need》中提出以來,,已成為自然語言處理(NLP)領(lǐng)域的核心技術(shù)之一。
這個架構(gòu)有很多好處,,但最大的缺點(diǎn)就是必須不斷投入大量的運(yùn)算資源,,以支撐模型的訓(xùn)練和對外提供服務(wù),。紐約時報曾爆料,OpenAI支撐ChatGPT對外提供服務(wù),,需要使用3萬塊英偉達(dá)A100的算卡,,而且每天的耗電超過50萬度。
想想都覺得可怕,。
英偉達(dá)一直在尋求解決方案以降低互聯(lián)網(wǎng)巨頭使用Transformer模型訓(xùn)練和推理的成本,。黃仁勛表示,英偉達(dá)的芯片進(jìn)化正是為此目的,。隨著算力芯片性能的提升,,成本有望進(jìn)一步下降。
問題是由于巨頭間的激烈競爭,,模型訓(xùn)練和推理能力需持續(xù)增強(qiáng),,這推動了英偉達(dá)最新算卡出貨量的大幅增長。
另一方面,,無論是引領(lǐng)潮流的OpenAI與ChatGPT,,還是Meta、谷歌,、馬斯克推出的開源大模型,,都未找到穩(wěn)定的商業(yè)化道路。
OpenAI在推出GPT4之前,,據(jù)說每月收入不足成本的1/3,。面臨商業(yè)模式不清晰、收入無法覆蓋成本的困境,,以及英偉達(dá)年年漲價的事實(shí),,互聯(lián)網(wǎng)巨頭管理層開始反思這種以資源投入和算卡堆砌推動模型發(fā)展的模式。
2.MoE成為解題關(guān)鍵
對于這些推出大模型服務(wù)的互聯(lián)網(wǎng)科技巨頭來說,,想解決英偉達(dá)算卡漲價帶來的成本支出不可持續(xù)問題,,有兩個解決方向。
一個是自研算力芯片,。近年來,,多家科技巨頭如微軟、OpenAI,、Meta,、馬斯克,以及谷歌和亞馬遜等,,均宣布了自研芯片計劃或已制作出樣片,。然而,自研算力芯片需要進(jìn)行后期對接效果調(diào)整,,并擺脫英偉達(dá)的CUDA重新制作中間層,,這導(dǎo)致時間成本難以估量,。
因此,另一個解題方向就被他們異常重視,,希望通過改變模型底層架構(gòu),,換一種不耗費(fèi)那么多資源就可以達(dá)到很好訓(xùn)練和推理效果的模型架構(gòu),來開發(fā)自己的大模型,。
而在硅谷,確實(shí)有這么一種模型架構(gòu)在這兩年被人不斷提起,,甚至在很多中小模型開發(fā)方的實(shí)踐中,,得到了印證。
這就是MoE,。
其實(shí)在更早一些的時間,,MoE一直被應(yīng)用于統(tǒng)計學(xué)的研究中。這是一種機(jī)器學(xué)習(xí)模型架構(gòu),,它將多個專家(Experts)模型組合起來,,共同解決一個問題。每個專家都是一個小型的神經(jīng)網(wǎng)絡(luò),,它們各自擅長處理任務(wù)的某一方面,。當(dāng)MoE模型接到一個任務(wù)時,它會將任務(wù)分配給最合適的專家,,最后通過一個門控網(wǎng)絡(luò)匯總專家的輸出,,給出最終答案。
這就像一家公司有多個部門,,在做決策的時候,,公司的CEO可以聽從市場部、生產(chǎn)部,、策劃部甚至財務(wù)部相關(guān)專業(yè)領(lǐng)導(dǎo)的建議,,最終產(chǎn)生最優(yōu)的決策。
由于這種架構(gòu)運(yùn)營的核心,,實(shí)際上是將大任務(wù)分成小任務(wù),,日常的訓(xùn)練也是針對于各個小神經(jīng)網(wǎng)絡(luò)的專家進(jìn)行,所以他所需要的推理和訓(xùn)練資源遠(yuǎn)遠(yuǎn)低于整體運(yùn)算的transformer架構(gòu),。
關(guān)鍵在于這種架構(gòu)對技術(shù)的理解和使用,,切分任務(wù)和找到關(guān)鍵神經(jīng)細(xì)分網(wǎng)絡(luò)并訓(xùn)練專家模型是該架構(gòu)成功的核心,這需要強(qiáng)大的技術(shù)實(shí)力,。相較于不斷增長的硬件投入,,這種軟性投入對大模型開發(fā)者來說更可接受。此外,,MoE架構(gòu)的特點(diǎn)有利于新興大模型企業(yè)的發(fā)展壯大,,因為它們可以通過技術(shù)理解和發(fā)展來突破現(xiàn)有巨頭的硬件護(hù)城河,。
正因為這樣的一個特點(diǎn),MoE開始成為大模型破局的關(guān)鍵,。
3.國內(nèi)其實(shí)一點(diǎn)也不慢
MoE作為統(tǒng)計學(xué)架構(gòu)早在1997年就被提出,,真正落實(shí)到自然語音學(xué)習(xí)是2018年以后的事情。
但由于這個架構(gòu)有幾個比較困難的訓(xùn)練難點(diǎn),,比如結(jié)果可能擬合,,這意味著模型最終結(jié)果可能只是因為特定因素影響造成而無法廣泛使用;再比如最后門框網(wǎng)絡(luò)的采用過程中,有可能偏愛幾個細(xì)分專家模型,,而不能從整體的專家模型結(jié)果中獲得結(jié)論等等,。
所以,哪怕谷歌在研究中有了相應(yīng)進(jìn)展,,MoE相對于Transformer架構(gòu),,在模型發(fā)展的廣泛性上遠(yuǎn)遠(yuǎn)不如。
真正讓MoE模型架構(gòu)照進(jìn)現(xiàn)實(shí)的,,是一篇2023年6月名為《MoE Meets Instruction Tuning》的論文,。這篇論文提出了幾種假設(shè)和相應(yīng)的解決方案,從技術(shù)可行性上解決了MoE非常難以控制的特點(diǎn),。
MoE模型架構(gòu)逐漸受到關(guān)注,,成為許多新興模型研發(fā)方的選擇。2023年12月8日,,Mistra AI在X平臺發(fā)布了首個開源MoE模型,,引起行業(yè)震動。與此同時,,國內(nèi)模型研發(fā)團(tuán)隊也迅速跟進(jìn),,MiniMax宣布將于2024年年初發(fā)布基于MoE架構(gòu)的大模型,新旦智能,、元象科技等也相繼加入,,推動了MoE在國內(nèi)的快速發(fā)展。
而業(yè)內(nèi)普遍認(rèn)同的MoE在中國發(fā)展標(biāo)志事件,,是今年2月6日,,昆侖萬維正式發(fā)布新版MoE大語言模型“天工2.0”與新版“天工AI智能助手”APP。這是國內(nèi)首個搭載MoE架構(gòu)并面向全體C端用戶免費(fèi)開放的千億級參數(shù)大語言模型AI應(yīng)用,。
其實(shí),,昆侖萬維是國內(nèi)最早投入精力研究MoE模型架構(gòu)的平臺公司。
這種一手抓技術(shù),,一手抓應(yīng)用的模式,,對于MoE模型架構(gòu)在中國的普及才是最有意義的。畢竟任何一種新的技術(shù),,無論有多炸裂,,只有大量的應(yīng)用才能對于產(chǎn)業(yè),,以及人們的生活帶來新的價值。
而很多時候有新價值產(chǎn)生,,是衡量一個技術(shù)能否持續(xù)發(fā)展的關(guān)鍵,。
2024年4月17日,昆侖萬維重磅宣布,,“天工3.0”正式開啟公測,。
“天工3.0”是采用4千億級參數(shù)MoE混合專家模型的全球領(lǐng)先模型之一,并將開源,。行業(yè)內(nèi)現(xiàn)在一致認(rèn)為,,在國內(nèi)MoE模型的排名里,昆侖萬維的天工是第一位,,字節(jié)豆包第二, Minimax第三,。