幺妹直播官方版_幺妹直播直播视频在线观看免费版下载_幺妹直播安卓高清版下载

首頁 > 業(yè)界 > 關(guān)鍵詞  > 顯卡最新資訊  > 正文

顯卡可能沒那么重要了?中國公司給硅谷好好上了一課。

2025-01-03 08:51 · 稿源: ?差評X.PIN公眾號

聲明:本文來自于微信公眾號 差評X.PIN,作者:差評君,授權(quán)站長之家轉(zhuǎn)載發(fā)布。

我是萬萬沒想到,就在西方還沉浸在圣誕假期,瘋狂“過年”的時候,咱們中國企業(yè)給人家放了個新年二踢腳,給人家腦瓜子崩得嗡嗡得。

前有宇樹科技的機(jī)器狗視頻讓大家驚呼,還要啥波士頓動力。

image.png

緊接著又來了個國產(chǎn)大模型 DeepSeek,甚至有股做空英偉達(dá)的味道。

具體咋回事兒,咱給你嘮明白咯。

前幾天,DeepSeek剛剛公布最新版本V3,注意,與大洋彼岸那個自稱 Open ,卻越來越 Close 的公司產(chǎn)品不同,這個 V3是開源的。

不過開源還不是他最重要的標(biāo)簽,DeepSeek-V3(以下簡稱V3)還兼具了性能國際一流,技術(shù)力牛逼,價格擊穿地心三個特點(diǎn),這一套不解釋連招打得業(yè)內(nèi)大模型廠商們都有點(diǎn)暈頭轉(zhuǎn)向了。

V3一發(fā)布, OpenAI 創(chuàng)始成員 Karpathy 直接看嗨了,甚至發(fā)出了靈魂提問,難道說大模型們壓根不需要大規(guī)模顯卡集群?

我估計老黃看到這頭皮都得發(fā)麻了吧。

圖片

同時, Meta 的 AI 技術(shù)官也是直呼DeepSeek 的成果偉大。

圖片

知名 AI 評測博主 Tim Dettmers ,直接吹起來了,表示 DeepSeek 的處理優(yōu)雅“elegant”。

圖片

而在這些技術(shù)出身的人,看著 V3的成績送去贊揚(yáng)的時候,也有些人急了。

比如奧特曼就擱那說,復(fù)制比較簡單啦,很難不讓人覺得他在內(nèi)涵 DeepSeek 。

圖片

更有意思的是,做到這些的公司既不是什么大廠,也不是純血 AI 廠商。

DeepSeek 公司中文名叫深度求索,他們本來和 AI 沒任何關(guān)系。

就在大模型爆火之前,他們其實是私募機(jī)構(gòu)幻方量化的一個團(tuán)隊

而深度求索能夠?qū)崿F(xiàn)彎道超車,既有點(diǎn)必然,也好像有點(diǎn)運(yùn)氣的意思。

早在2019年,幻方就投資2億元搭建了自研深度學(xué)習(xí)訓(xùn)練平臺“螢火蟲一號”,到了2021年已經(jīng)買了足足1萬丈英偉達(dá) A100顯卡的算力儲備了。

超級計算機(jī) 數(shù)據(jù)中心 (1)

圖源備注:圖片由AI生成,圖片授權(quán)服務(wù)商Midjourney

要知道,這個時候大模型沒火,萬卡集群的概念更是還沒出現(xiàn)。

而正是憑借這部分硬件儲備,幻方才拿到了 AI 大模型的入場券,最終卷出了現(xiàn)在的 V3。

你說好好的一個量化投資領(lǐng)域的大廠,干嘛要跑來搞 AI 呢?

深度求索的 CEO 梁文鋒在接受采訪的時候給大家聊過,并不是什么看中 AI 前景。

而是在他們看來,“通用人工智能可能是下一個最難的事之一”,對他們來說,“這是一個怎么做的問題,而不是為什么做的問題?!?/p>

就是抱著這么股“莽”勁,深度求索才搞出了這次的大新聞,下面給大家具體講講 V3有啥特別的地方。

首先就是性能強(qiáng)悍,目前來看,在 V3面前,開源模型幾乎沒一個能打的。

還記得去年年中,小扎的Meta推出模型Llama3.1,當(dāng)時就因為性能優(yōu)秀而且開源,一時間被捧上神壇,結(jié)果在V3手里,基本是全面落敗。

而在各種大廠手里的閉源模型,那些大家耳熟能詳?shù)氖裁?GPT-4o 、 Claude3.5Sonnet 啥的, V3也能打得有來有回。

圖片

你看到這,可能覺得不過如此,也就是追上了國際領(lǐng)先水平嘛,值得這么吹嗎?

殘暴的還在后面。

大家大概都知道了,現(xiàn)在的大模型就是一個通過大量算力,讓模型吃各種數(shù)據(jù)的煉丹過程。

在這個煉丹期,需要的是大量算力和時間往里砸。

所以在圈子里有了一個新的計量單位“GPU 時”,也就是用了多少塊 GPU 花了多少個小時的訓(xùn)練時間。

GPU 時越高,意味著花費(fèi)的時間、金錢成本就越高,反之就物美價廉了。

前面說的此前開源模型王者, Llama3.1405B ,訓(xùn)練周期花費(fèi)了3080萬 GPU 時。

可性能更強(qiáng)的 V3,只花了不到280萬 GPU 時

以錢來換算, DeepSeek 搞出 V3版本,大概只花了4000多萬人民幣。

而 Llama3.1405B 的訓(xùn)練期間, Meta 光是在老黃那買了16000多個 GPU ,保守估計至少都花了十幾億人民幣。

至于另外的那幾家閉源模型,動輒都是幾十億上百億大撒幣的。

圖片

你別以為 DeepSeek 靠的是什么歪門邪道,人家是正兒八經(jīng)的有技術(shù)傍身的。

為了搞清楚 DeepSeek 的技術(shù)咋樣,咱們特地聯(lián)系了語核科技創(chuàng)始人兼 CTO 池光耀,他們主力發(fā)展企業(yè)向的 agent 數(shù)字人,早就是 DeepSeek 的鐵粉了。

池光耀告訴我們,這次V3的更新主要是3個方面的優(yōu)化,分別是通信和顯存優(yōu)化、推理專家的負(fù)載均衡以及FP8混合精度訓(xùn)練。

各個部分怎么實現(xiàn)的咱也就不多說了,總體來說,大的整體結(jié)構(gòu)沒啥變化,更多的像是咱們搞 基建的那一套傳統(tǒng)藝能,把工程做得更高效、更合理了。

圖片

首先,V3通過通信和顯存優(yōu)化,極大幅度減少了資源空閑率,提升了利用效率。

而推理專家(具備推理能力的 AI 系統(tǒng)或算法,能夠通過數(shù)據(jù)分析得出結(jié)論)的負(fù)載均衡就更巧妙了,一般的大模型,每次啟動,必須把所有專家都等比例放進(jìn)工位(顯存),但真正回答用戶問題時,十幾個專家里面只用到一兩個,剩下的專家占著工位(顯存)摸魚,也干不了別的事情。

而DeepSeek把專家分成熱門和冷門兩種,熱門的專家,復(fù)制一份放進(jìn)顯存,處理熱門問題;冷門的專家也不摸魚,總是能被分配到問題。

FP8混合精度訓(xùn)練則是在之前被很多團(tuán)隊嘗試無果的方向上拓展了新的一步,通過降低訓(xùn)練精度以降低訓(xùn)練時算力開銷,但卻神奇地保持了回答質(zhì)量基本不變。

也正是這些技術(shù)上的革新,才得到了大模型圈的一致好評。

圖片

通過一直以來的技術(shù)更新迭代, DeepSeek 收獲的回報也是相當(dāng)驚人的。

他們 V3版本推出后,他們的價格已經(jīng)是低到百萬次幾毛錢、幾塊錢

他們甚至還在搞了個新品促銷活動,到明年2月8號之前,在原來低價的基礎(chǔ)上再打折。

圖片

而一開始提到同樣開源的 Claude3.5Sonnet ,每百萬輸入輸出,至少都得要幾十塊以上。。。

更要命的是,這對 DeepSeek 來說已經(jīng)是常規(guī)套路了。

早在去年初,DeepSeek V2模型發(fā)布后,就靠著一手低價,被大家叫做了AI界拼多多。

他們還進(jìn)一步引發(fā)了國內(nèi)大模型公司的價格戰(zhàn),諸如智譜、字節(jié)、阿里、百度、騰訊等大廠紛紛降價。

池光耀也告訴我們,他們公司早在去年6、7月份就開始用上了 DeepSeek ,當(dāng)時也有國內(nèi)其他一些大模型廠商來找過他們。

但和DeepSeek價格差不多的,模型“又太笨了,跟DeepSeek不在一個維度”;如果模型能力和 DeepSeek 差不多,那個價格“基本都是10倍以上”。

更夸張的是,由于技術(shù)“遙遙領(lǐng)先”帶來的降本增效,哪怕DeepSeek賣得這么便宜,根據(jù)他們創(chuàng)始人梁文峰所說,他們公司還是賺錢的。。。是不是有種隔壁比亞迪搞998,照樣財報飄紅的味道了。

不過對于我們普通用戶來說, DeepSeek 似乎也有點(diǎn)偏門了。

因為他的強(qiáng)項主要是在推理、數(shù)學(xué)、代碼方向,而多模態(tài)和一些娛樂化的領(lǐng)域不是他們的長處。

而且眼下,盡管 DeepSeek 說自己還是賺錢的,但他們團(tuán)隊上上下下都有股極客味,所以他們的商業(yè)化比起其他廠商就有點(diǎn)弱了。

但不管怎么說, DeepSeek 的成功也證明了,在 AI 這個賽道還存在的更多的可能。

按以前的理解,想玩轉(zhuǎn) AI 后面沒有個金主爸爸砸錢買顯卡,壓根就玩不轉(zhuǎn)。

但現(xiàn)在看起來,掌握了算力并不一定就是掌握了一切。

我們不妨期待下未來,更多的優(yōu)化出現(xiàn),讓更多的小公司、初創(chuàng)企業(yè)都能進(jìn)入 AI 領(lǐng)域,差評君總感覺,那才是真正的 AI 浪潮才對。

舉報

  • 相關(guān)推薦

熱文

  • 3 天
  • 7天