以2024年全球主要云端服務(wù)業(yè)者(CSP)對(duì)高端AI 服務(wù)器(包含搭載NVIDIA、AMD或其他高端ASIC芯片等)需求量觀察,預(yù)估美系四大CSP業(yè)者包括Microsoft、Google、AWS、Meta各家占全球需求比重分別達(dá)20.2%、16.6%、16%及10.8%,合計(jì)將超過6成,居于全球領(lǐng)先位置。其中,又以搭載NVIDIA GPU的AI 服務(wù)器機(jī)種占大宗。
受國(guó)際形勢(shì)變化影響,NVIDIA后續(xù)發(fā)展仍有挑戰(zhàn)
NVIDIA近期整體營(yíng)收來源以數(shù)據(jù)中心業(yè)務(wù)為關(guān)鍵,主因其GPU服務(wù)器占整體AI市場(chǎng)比重高達(dá)6~7成,只是后續(xù)仍須留意三大狀況,可能使NVIDIA發(fā)展受限。其一,受國(guó)際形勢(shì)變化影響,中國(guó)將更致力于AI芯片自主化。而NVIDIA推出的H20等中國(guó)特規(guī)方案,性價(jià)比可能不及既有的H100或H800等,中國(guó)客戶采用度可能較先前保守,進(jìn)一步影響NVIDIA市占率。
其二,在具規(guī)模及成本考量下,美系大型CSP業(yè)者除Google、AWS外,Microsoft、Meta等亦有逐年擴(kuò)大采自研ASIC趨勢(shì)。其三,來自AMD的同業(yè)競(jìng)爭(zhēng),AMD采高性價(jià)比策略,對(duì)標(biāo)NVIDIA同級(jí)品,AMD提供僅60~70%價(jià)格,甚至代表性或具規(guī)??蛻裟芤愿蛢r(jià)策略方式搶進(jìn)市場(chǎng),預(yù)期2024年尤以Microsoft為最積極采納AMD高端GPU MI300方案業(yè)者。
NVIDIA為維持領(lǐng)先,將更致力拓展多元組合產(chǎn)品線
NVIDIA在面臨潛在隱憂下,亦更積極加速拓展其多元產(chǎn)品線,以應(yīng)對(duì)不同客戶群。2024年起將正式替換A100產(chǎn)品,而以價(jià)格更高的H100系列為主軸。除H100,預(yù)估自今年第二季末開始小量出貨搭載更高HBM3e規(guī)格的H200產(chǎn)品。另預(yù)估NVIDIA未來在價(jià)格上將更積極采差別訂價(jià),H100采部分折價(jià)策略,H200應(yīng)維持約H100原價(jià)格水位,以提供更高性價(jià)比方式,穩(wěn)固云端CSP客戶。除此之外,NVIDIA將采用NRE(一次性工程費(fèi)用;Non-recurring engineering Expense)模式,與Meta、Google、AWS及OpenAI等廠商展開洽談,并將目標(biāo)擴(kuò)及電信、車用及電競(jìng)客戶。
此外,預(yù)期NVIDIA自2024年下半年將推出新一代B100產(chǎn)品,相較H系列可望在效能上又有所提升,在HBM存儲(chǔ)器容量將高出H200約35~40%,以應(yīng)對(duì)更高效能HPC或加速LLM AI訓(xùn)練需求。而在中低端產(chǎn)品上,除L40S針對(duì)企業(yè)客戶做邊緣端較小型AI模型訓(xùn)練或AI推理外,另亦規(guī)劃以L4取代既有T4,作為云端或邊緣AI推理應(yīng)用。
值得注意的是,為避免2023年GPU供應(yīng)不足問題,NVIDIA亦積極參與CoWoS及HBM等擴(kuò)建產(chǎn)能需求,預(yù)期今年第二季在相關(guān)原廠產(chǎn)能逐步開出后,原交付Lead Time平均約40周也將減半,逐步去除下游供應(yīng)鏈因GPU短缺而使AI服務(wù)器供應(yīng)進(jìn)度受阻問題。