來源:雷科技AI硬件組?|?編輯:冬日果醬?|?排版:JINX
就在本周,全球存儲芯片巨頭 SK 海力士宣布了最新一輪超過 1000 億元人民幣的投資,計劃用于擴大包括 HBM(高帶寬內存)在內的下一代 DRAM 的產(chǎn)能。
一點也不意外。
過去一年半,從 ChatGPT 到 Sora 一次又一次刷新了人們對于人工智能的認知。而且從目前來看,Claude 3 的震撼發(fā)布,GPT-5 流出的信息,似乎說明大語言模型(以下簡稱「大模型」)的智力涌現(xiàn)沒有絲毫放緩的跡象。
這讓 GPU「采購戰(zhàn)爭」變得愈演愈烈,連帶著臺積電的 CoWos 以及 HBM 產(chǎn)能也成為了絕對意義的「搶手貨」。但大模型在「爭奪」的其實不只是 HBM。
隨著手機、PC 等計算終端開始積極引入大模型,甚至出現(xiàn)了一系列基于大模型打造的 AI 原生終端,消費電子產(chǎn)品對于 DRAM(內存)、NAND(閃存)的需求也在變多、變大。
從 GPT-3.5 到 Llama 3,大模型要繼續(xù)帶飛存儲芯片
當?shù)貢r間 4 月 18 日,Meta 發(fā)布了最新的開源大模型 Llama 3,再次奪回了開源大模型的「王座」。但值得注意的是,Llama 3 的強大很大程度上離不開 15 萬億 Token 的訓練數(shù)據(jù),這不僅是小公司難以企及的規(guī)模,甚至比谷歌之前開源的 Gemma 大模型:
還多出一倍不止。
從 GPT-3.5 到 Llama 3,時至今日,大模型的智力涌現(xiàn)依然依托于 Scaling laws(OpenAI 提出)指導下的大力出奇跡,對算力和數(shù)據(jù)有著近乎沒有上限的需求。這直接孕育了海量的 GPU 需求,也帶動了 HBM 的需求。
根據(jù)國外研究機構的拆解,英偉達力推的 H100 NVL 版本配備了 12 個 16GB HBM 堆棧,而單顆 16GB HBM 堆棧,成本就高達 240 美元。也就是說,僅僅 HBM 的成本就逼近 3000 美元,毫無疑問超過了制造和封裝,是 H100 成本中最貴的一項。
即便如此,SK 海力士、美光 2024 年的 HBM 產(chǎn)能,也早被英偉達、AMD、英特爾、谷歌、微軟等半導體廠商預訂一空。
高昂的定價和供不應求的訂單,也讓 HBM 廠商賺得盆滿鍋滿。4 月 25 日剛公布的財報顯示,SK 海力士今年第一季度營業(yè)利潤為 2.8860 萬億韓元(約合人民幣 151.8 億元),不僅扭虧為盈,而且比起已經(jīng)很樂觀的市場預期:
還高出 30%。
要知道,這還是產(chǎn)能遠遠無法滿足需求的情況。
而另一方面,大模型預訓練最重要的一步就是語料庫的采集。如果企業(yè)需要利用私有數(shù)據(jù)重新訓練模型,同樣也要經(jīng)過數(shù)據(jù)收集、清洗等步驟。
不僅如此,涉及數(shù)據(jù)就不可避免要涉及「數(shù)據(jù)怎么存儲、怎么管理、怎么保證數(shù)據(jù)安全,」聯(lián)想凌拓首席執(zhí)行官陸大昕在年初的一次演講中表示,「這些都是后續(xù)大模型建設中的剛需?!?/p>
所以不難想象,伴隨大模型進一步從數(shù)據(jù)中心擴散到更多、更分散的服務器,以及大模型應用的擴展和普及,需要更大的數(shù)據(jù)存儲容量。這也就不奇怪,已經(jīng)有大量廠商正在面向 AI 需求打造數(shù)據(jù)存儲產(chǎn)品和解決方案。
國內知名存儲廠商江波龍董事長蔡華波還在 2024 中國閃存市場峰會上表示:
江波龍要從存儲模組廠向半導體品牌公司做轉型,經(jīng)營模式從原有的價差模式向服務模式轉型。
AI 硬件元年,終端吞噬存儲芯片
都說 2024 年是 AI 硬件元年,其實并不夸張。不只是很多人都聽過的 AI 手機、AI PC,還有大量硬件產(chǎn)品,包括智能眼鏡、電視乃至產(chǎn)品形態(tài)更新穎的 AI 原生終端,都在 2024 年集體亮相。
盡管很多產(chǎn)品在擁抱 AI 的過程中含有不少「水分」,比如可能只是接入了類 ChatGPT 的生成式 AI 聊天機器人,或者只是引入云端大模型的能力。但從「AI 消除」到「AI 通話/閱讀摘要」,我們也要承認,基于背后的大模型,生成式 AI 的確開始改變我們的數(shù)字體驗。
同時,不管是手機還是 PC 廠商都認同端側大模型的勢在必行,只有結合端側和云端大模型,計算終端的體驗才能發(fā)生革命性的演變。但與此相對的是,端側算力和存儲配置也變得前所未有地重要。
君不見,江波龍上個月就宣布將與西部數(shù)據(jù)「加強合作關系,積極探索并共同支持下一代基于人工智能的移動終端存儲和應用的市場機遇?!垢唧w地說,江波龍要與西部數(shù)據(jù)聯(lián)手面向手機市場提供「領先的定制化嵌入式存儲解決方案」——也就是閃存,對應到手機上就是存儲空間。
不僅如此,從財報公布的數(shù)據(jù)來看,截止 3 月 31 日,江波龍的存貨賬面金額猛然上升至 76 億元,同比增長了 28%。按照江波龍的說法,存貨增長主要是因為戰(zhàn)略備貨增加。但顯然,更根本的原因是江波龍看好大模型在手機和 PC 等主要計算終端上的落地,必然需要更大的存儲配置。
當然也不只是江波龍,前文提到的 SK 海力士以及三星都在向手機、PC 市場提供更大甚至更高帶寬的內存,還計劃參考 HBM,在 LPDDR 基礎上引入新的堆疊和封裝方式。
從數(shù)據(jù)中心到計算終端,這一輪席卷全球的 AI 浪潮不僅在助推存儲芯片行業(yè)走出寒冬,也在將行業(yè)引向一個全新的周期。
寫在最后
如果你相信大模型一定是未來,一定會走進千行百業(yè),走進千家萬戶,那毫無疑問的是,存儲芯片也一定是未來。
說到底,作為推動 AI 進化的三個核心要素之一,隨著 AI 的逐步落地和普及,數(shù)據(jù)一定需要更大、更快的內存和閃存,也需要更適合 AI 時代的存儲解決方案。
這是挑戰(zhàn),也是機遇。
盡管 SK 海力士、三星、美光三大存儲芯片巨頭在技術、資本、人才上的優(yōu)勢不言而喻,也幾乎壟斷了 HBM 供應。但對于包括江波龍在內的國產(chǎn)存儲廠商來說,面向 AI 需求的儲存解決方案依然是一個全新的領域,不管在個人移動終端上,還是在企業(yè)級市場上。
同時,這里也孕育了全新的可能。