11.11云上盛惠!海量產(chǎn)品 · 輕松上云!云服務(wù)器首年1.8折起,買1年送3個月!超值優(yōu)惠,性能穩(wěn)定,讓您的云端之旅更加暢享??靵眚v訊云選購吧!
根據(jù)最新曝料,NVIDIA正在準備120GBHBM2e顯存版的H100計算卡,PCIe形態(tài),顯存帶寬還是高達3TB/s...GH100核心采用臺積電4nm工藝制造,集成800億個晶體管,核心面積814平方毫米,內(nèi)部集成了多達18432個CUDA核心、576個Tensor核心、60MB二級緩存,分為144個SM單元,另有12個512-bit顯存控制器,總位寬6144-bit......
近日有消息稱,英偉達正在開發(fā)一款 Hopper H100 PCIe 加速卡,特點是具有高達 120GB 的 HBM2e 顯存...每組 SM 單元最多由 128 個 FP32 單元,那樣滿血版應(yīng)該是 18432 個 CUDA 核心...● 每組 SM 單元擁有 128 個 FP32 CUDA 核心,每顆 GPU 擁有 18432 個 FP32 CUDA 核心...● 每組 SM 單元擁有 128 個 FP32 CUDA 核心,每顆 GPU 擁有 16896 個 FP32 CUDA 核心......
@結(jié)城安穗-YuuKi_AnS 剛剛分享了英特爾至強(Xeon)可擴展 Sapphire Rapids 處理器的一組跑分數(shù)據(jù)。尷尬的是,即使封裝了 HBM2E 高帶寬緩存的高端 HPC 型號,都未能將 AMD 當前一代 Zen 3 霄龍(EPYC)Milan-X 競品掃落馬下。作為參考,測試對比的 64C / 128T 的 Milan-X 服務(wù)器 CPU,也帶有堆疊的 3D V-Cache 緩存。本次泄露的跑分,涉及兩款工程樣品 —— 分別是 52C / 104T 的至強鉑金 8472C,以及 60C / 120T 的 8490H 。除了最簡單的 CPU-Z 單 / 多核跑分,@結(jié)城安穗-YuuKi_AnS 還分享了闊內(nèi)核擴展的 V-ray 基準測試項目。然后 Toms
MI200回歸單芯封裝,規(guī)格、性能幾乎完全就是MI250砍去一半:291億個晶體管,104組計算單元,6656個流處理器核心,416個矩陣核心,4096-bit 64GB HBM2e顯存,三條Infinity Link互連總線......
AMD即將發(fā)布更多的Instinct MI200系列計算加速卡,基于其全新的Aldebaran CDNA 2GPU架構(gòu),主要用于HPC領(lǐng)域。最新公布的消息是Instinct MI210,它將采用單一的Aldebaran CDNA 2GPU計算芯片,擁有6656個內(nèi)核和64GB HBM2E內(nèi)存。通過Instinct MI250X和MI250,AMD將MCM技術(shù)帶到了數(shù)據(jù)中心和HPC領(lǐng)域。基于其新的CDNA 2架構(gòu),新的Aldebaran GPU能夠進一步緩解HPC和數(shù)據(jù)中心的工作負載,但還有更多的MI200系列顯卡即將面世,MI210就是其中?
在一年一度的超算大會上,高性能計算行業(yè)的許多參與者都在積極討論硬件、安裝、以及設(shè)計等方面的最新進展。期間,芯片巨頭英特爾也展示了自家的硬件,并披露了有關(guān)下一代 Aurora Exascale 超算的諸多細節(jié)。起初,Aurora 計劃采用英特爾的 10nm 至強(Xeon)融核(Phi)平臺,但隨著技術(shù)的飛速發(fā)展,后續(xù)該項目也經(jīng)歷了多次推倒重來。幾年前最終敲定的方案,為 Aurora 選用了英特爾 Sapphire Rapids 處理器,特點是配備 HBM2e 高帶?
AMD CEO蘇姿豐博士此前曾進口確認,會在明年發(fā)布基于下一代架構(gòu)的全新計算卡,但未透露更多細節(jié)。一直以來不斷有曝料稱,AMD CDNA2架構(gòu)的全新計算卡代號Aldebaran(畢宿五),將命名為Instinct MI200,會采用MCM雙芯整合封裝設(shè)計。根據(jù)大神@ExecutableFix的最新情報,AMD全新計算卡將有兩款,分別叫Instinct MI250X、Instinct MI250,都基于Aldebaran GPU。其中,MI250X將集成110個CU計算單元,并集成創(chuàng)記錄的128GB HBM2e顯存。這不?
在 ISC 2021 活動期間,我們于英偉達曬出的諸多展品中,發(fā)現(xiàn)了一款 A100 加速卡的更新版本。其實早在去年 11 月,我們就已經(jīng)見到過擁有 80GB HBM2E 緩存的 A100 加速卡。不過當時,英偉達僅提供了 SXM2 的專有外形版本。而現(xiàn)在,該公司終于推出了采用標準雙 PCIe 插槽、輔以 80GB HBM2E 緩存的 A100 加速卡。(圖 via VideoCardz)TechPowerUp 指出,該 SKU 采用了基于臺積電 7nm 工藝制造的 GA100 GPU SKU,具有 6192 個 CUDA 核?
英偉達可能正在升級Ampere A100 GPU。現(xiàn)有的NVIDIA A100 HPC加速器是在去年6月推出的,看起來英偉達正計劃給它進行重大規(guī)格升級。該芯片基于英偉達最大的安培GPU - A100,其尺寸為826平方毫米,容納了540億個晶體管,令人難以置信。在規(guī)格方面,A100 PCIe GPU加速器在核心配置方面沒有什么變化。GA100 GPU保留了我們在250W版本上看到的規(guī)格,有6912個CUDA核心,排列在108個SM單元中,432個張量核心,但是內(nèi)存升級到80GB HBM2e內(nèi)存?
消息稱,NVIDIA將在下周發(fā)布新款PCIe版本的A100加速計算卡,顯存容量從40GB翻番到80GB,類型也從HBM2升級為HBM2e。NVIDIA A100加速卡誕生于去年3月,采用全新Ampere安培架構(gòu)的超大核心GA100,7nm工藝,542億晶體管,826平方毫米面積,6912個核心,搭載5120-bit 40GB HBM2顯存,帶寬1.6TB/s,外形規(guī)格分為專用的SMX4、通用的PCIe兩種樣式,前者支持更多GPU互連。去年11月,A100 SMX4版本升級為80GB HBM2e顯存,加上頻率提升到3.2GHz
我們知道,Intel重返獨立顯卡市場的Xe GPU架構(gòu)分為四種不同級別,從低到高分別是Xe LP、Xe HPG、Xe HP、Xe HPC,覆蓋從輕薄本到高性能計算等各種領(lǐng)域。如果說相當于核顯級別的Xe LP只是牛刀小試,Xe HPG就是游戲玩家的期待,Xe HP、Xe HPC則是高端計算的利器?,F(xiàn)在,我們第一次看到了Xe HP架構(gòu)的加速卡,規(guī)格很殘暴,而且還有更殘暴的。Xe HP加速卡代號Arctic Sound,采用一種名為Tile”的模塊化堆積設(shè)計方式(類似chiplets小芯片)?
NVIDIABlackwellGPU系列產(chǎn)品無疑是AI市場上的頭號寵兒,甚至未來半年的產(chǎn)能都賣光了,NVIDIA對于產(chǎn)業(yè)鏈的供應(yīng)也十分饑渴,比如臺積電CoWoS封裝,比如HBM內(nèi)存芯片。SK海力士董事長崔泰源就透露,他們原計劃2025年下半年向客戶供貨下一代HBM4芯片,但是黃仁勛明確要求,必須加快速度,提前6個月交貨。不過在Rubin之前會有一代升級版的BlackwellUltraB300系列是搭配HBM3E。
在SKIcheonForum2024論壇上,SK海力士副總裁RyuSeong-su宣布,該公司正計劃開發(fā)一種新的HBM內(nèi)存標準,該標準將比目前HBM產(chǎn)品快20-30倍。RyuSeong-su表示,公司的目標是推出性能大幅提升的差異化產(chǎn)品,以期在HBM市場中取得領(lǐng)先地位。SK海力士還表達了創(chuàng)建其存儲半導(dǎo)體的意向,根據(jù)計劃,SK海力士和三星都計劃在2025年中或年底之前發(fā)布各自的HBM4產(chǎn)品,以便及時集成到下一代產(chǎn)品中,如英偉達Robin等架構(gòu)。
據(jù)集邦咨詢最新報告,NVIDIA將在今年下半年供貨Blackwell架構(gòu)的新一代B100、B200GPU,供應(yīng)CSP云客戶,同時增加一款精簡版的B200A,面向有邊緣AI需求的OEM企業(yè)客戶。臨時增加B200A的主要原因是B200所用的臺積電CoWoS-L封裝產(chǎn)能持續(xù)吃緊,需要集中滿足CSP客戶需求,B200A則會改用相對簡單和寬松的CoWoS-S封裝技術(shù)。集邦咨詢預(yù)計,NVIDIA高端GPU明年的出貨量將增長55%。
三星電子于周二宣布研發(fā)出一款全新高帶寬內(nèi)存芯片,被譽為行業(yè)內(nèi)“容量最大”產(chǎn)品。這款名為HBM3E12H的芯片據(jù)稱“性能和容量均提升超過50%”?!弊詈螅请娮訌娬{(diào)該內(nèi)存芯片的未來發(fā)展前景,并計劃于2024年上半年開始量產(chǎn)。
HBM4內(nèi)存帶來的升級之一,就是采用了2048位接口,從實現(xiàn)更高的帶寬,這也是HBM4內(nèi)存最大的變化,不過唯一的問題就是成本較高,與消費者無緣,但也可以說是HPC、AI領(lǐng)域的專屬。據(jù)韓國《每日經(jīng)濟新聞》報道,臺積電和SK海力士已成立所謂的AI半導(dǎo)體聯(lián)盟。HBM類產(chǎn)品前后經(jīng)過了HBM、HBM2、HBM2E、HBM3、HBM3E的開發(fā),其中HBM3E是HBM3的擴展版本HBM4將是第六代產(chǎn)品。
韓國ChosunBiz近日報道,NVIDIA已經(jīng)向SK海力士、鎂光,交付了700億至1萬億韓元的預(yù)付款,業(yè)內(nèi)預(yù)計了這筆款項在10.8億美元到15.4億美元之間。雖然沒有說明具體用途,但業(yè)界普遍認為,NVIDIA是為了確保2024年HBM供應(yīng)穩(wěn)定,避免新一代AI、HPCGPU因為發(fā)布后庫存不足掉鏈子。畢竟在NVIDIA在AI、HPC領(lǐng)域遙遙領(lǐng)先,這也是為什么需要大量HBM內(nèi)存,來確保H200GPU、以及GH200超級芯片的產(chǎn)品供應(yīng)。
HBM的熱度不可謂不高,無論是相關(guān)半導(dǎo)體大廠“激進”擴產(chǎn)的計劃是產(chǎn)品供不應(yīng)求的消息,都將這個內(nèi)存領(lǐng)域的“新”技術(shù),推到了資本市場與相關(guān)投資者的眼前。在相關(guān)大廠的擴產(chǎn)方面,兩大存儲芯片巨頭持續(xù)加碼:三星、SK海力士擬將HBM產(chǎn)量提高至2.5倍的消息曝出,使得HBM概念股倍受市場關(guān)注。參考資料:1.《HBM很貴,但你必須買!》,芯長征科技;2.《GDDR6vsDDR4vsHBM2?為什么CPU還?
本周,亞馬遜網(wǎng)絡(luò)服務(wù)推出了其新的人工智能加速器芯片Trainium2,相比其前身,它顯著提升了性能,使AWS能夠訓(xùn)練具有高達數(shù)萬億參數(shù)的基礎(chǔ)模型和大型語言模型。AWS還為自己設(shè)定了一個宏偉目標,即使其客戶能夠為他們的工作負載訪問高達65AIExaFLOPS的性能。我們與AWS的合作將幫助各種規(guī)模的組織解鎖新的可能性,因為它們使用Anthropic的最先進AI系統(tǒng)與AWS的安全可靠云技術(shù)結(jié)合。
據(jù)TrendForce集邦咨詢最新HBM市場研究顯示,為了更妥善且健全的供應(yīng)鏈管理,英偉達也規(guī)劃加入更多的HBM供應(yīng)商。三星的HBM3預(yù)期于今年12月在NVIDIA完成驗證。在HBM4中,將首次看到最底層的Logicdie將首次采用采用12nm制程晶圓,該部分將由晶圓代工廠提供,使得單顆HBM產(chǎn)品需要晶圓代工廠與存儲器廠合作。
HBM3e在行業(yè)中的意義是巨大的,因為它將為下一代AIGPU鋪平道路這對于實現(xiàn)高計算性能至關(guān)重要。據(jù)BusinessKorea報道,三星電子已確認將其第五代HBM3E產(chǎn)品命名為「Shinebolt」。我們將進一步擴大生產(chǎn)以為客戶提供定制HBM。
由于人工智能需求的大幅增加,英偉達計劃將其下一代BlackwellB100GPU的發(fā)布日期從2024年第四季度提前到2024年第二季度。該公司預(yù)計將使用SK海力士的HBM3eDRAM來驅(qū)動其最新的芯片。這表明英偉達正在加快其AIGPU的步伐,希望在未來幾年繼續(xù)保持領(lǐng)先地位。
三星電子周三發(fā)布的初步財報顯示,第三季度營業(yè)利潤同比下降77.9%,原因是全球芯片供應(yīng)持續(xù)過剩的影響導(dǎo)致其芯片業(yè)務(wù)出現(xiàn)虧損。該公司將于本月晚些時候發(fā)布第三季度正式財報?!肝覀冮_創(chuàng)了AI內(nèi)存芯片市場,大規(guī)模生產(chǎn)了第二到第四代HBM產(chǎn)品。
將在明年初大批量出貨交付HBM3E高帶寬內(nèi)存,首要客戶就是NVIDIA。NVIDIAA100/H100計算卡熱賣,對于HBM的需求也空前高漲,動輒單卡幾十GB,最近宣布的GraceHopper超級芯片,雙路系統(tǒng)就需要282GBHBM3E。美光還將在明年初出貨32GBDDR5顆粒,可以輕松做成單條桌面32GB、服務(wù)器128GB,甚至能達成單條1TB。
在第二季度,長期處于落后地位的SK海力士憑借高價值和高性能的內(nèi)存HBM產(chǎn)品銷售火爆,使其與全球內(nèi)存領(lǐng)導(dǎo)者三星電子的市場份額差距縮小至6.3個百分點,自2009年以來最小的差距。根據(jù)全球科技產(chǎn)業(yè)跟蹤機構(gòu)Omdia周日公布的數(shù)據(jù),SK海力士在4月至6月期間DRAM銷售額達34億美元,比上季度飆升49%。該DDR5具有比以前型號高10%的高電能效率。
隨著AI市場的爆發(fā),不僅CPU、GPU算力被帶動了,HBM內(nèi)存也成為香餑餑有2.5D、3D封裝技術(shù),但是它們的產(chǎn)能之前很受限制,除了成本高,焊接工藝復(fù)雜也是問題。芯片焊接目前主要采用高溫焊,焊料主要是SAC錫、銀、銅材質(zhì),熔點超過250℃,這個溫度的焊接技術(shù)對大部分芯片來說沒問題,但HBM內(nèi)存使用了TSV硅通孔技術(shù),這樣的高溫焊接就有可能導(dǎo)致變形。三星、SK海力士等公司正在擴大HBM內(nèi)存的生產(chǎn),這種低溫焊技術(shù)很快也會得到大面積使用。
不到一年時間,生成式人工智能已經(jīng)成為企業(yè)計算的主導(dǎo)影響力,因此處理器創(chuàng)新也需要快速推進。英偉達在宣布其新的GH200超級芯片不到三個月后,已經(jīng)對GH200進行了「提升」。新版本與5月份在Computex上發(fā)布的NVIDIAMGX服務(wù)器規(guī)范完全兼容,這意味著制造商可以輕松地將其添加到許多不同的服務(wù)器版本中。
根據(jù)一份報告,盡管芯片供應(yīng)過剩,三星電子在一季度仍然保持全球內(nèi)存芯片市場的領(lǐng)先地位SK海力士公司從去年的第二名下降到第三名,主要是因為它在三星之前削減產(chǎn)量。三星電子在DRAM市場占有42.8%的份額,與上一季度持平。HBM芯片適用于高性能計算系統(tǒng),如人工智能驅(qū)動的數(shù)據(jù)分析和先進的圖形系統(tǒng)。
2023年HBM市場的主導(dǎo)產(chǎn)品是HBM2e,該產(chǎn)品由英偉達A100/A800、AMDMI200以及大多數(shù)云服務(wù)提供商的自主開發(fā)的加速器芯片所采用。隨著對AI加速器芯片需求的不斷發(fā)展,制造商計劃在2024年推出新的HBM3e產(chǎn)品,預(yù)計HBM3和HBM3e將成為明年市場的主流。
據(jù)韓國經(jīng)濟日報消息,存儲芯片制造商三星電子將為英偉達公司提供高性能半導(dǎo)體和封裝服務(wù),有望在其它大型科技公司中贏得訂單。根據(jù)周二首爾的行業(yè)消息,三星和英偉達正在對 HBM3 芯片進行技術(shù)驗證和封裝服務(wù)。一旦完成工作,預(yù)計三星將負責封裝 H100,英偉達最新的人工智能 GPU,同時為處理器供應(yīng) HBM3 芯片。