加入星計劃,您可以享受以下權益:

  • 創(chuàng)作內容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 芯片架構邁向多元化
    • AI性能帶動先進封裝
    • 存儲原廠比拼產(chǎn)能與封裝技術
    • 材料和架構創(chuàng)新助力低功耗
  • 推薦器件
  • 相關推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

AI改變半導體:迫在眼前的革新

03/14 11:10
3706
閱讀需 12 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

2023年,生成式人工智能在全球范圍內掀起熱潮,大模型的競爭越發(fā)激烈。在2024年,人工智能將進一步帶動芯片算力、存力(存儲性能)和能效的提升,推動半導體在架構和先進封裝等環(huán)節(jié)的創(chuàng)新,并帶來新的市場增量。

芯片架構邁向多元化

ChatGPT的出現(xiàn)拓寬了AI芯片的市場空間,AI大模型訓練需求激增,因此高算力芯片成為半導體產(chǎn)業(yè)鏈本輪復蘇的主要驅動力。在AI浪潮中,英偉達2023年的數(shù)據(jù)中心業(yè)務憑借著A100、H100等GPU(圖形處理器)產(chǎn)品實現(xiàn)了217%的同比增長,截止2024年3月6日,其市值突破2.1億美元。作為當前進行AI運算的主流處理器,GPU自身具備強大的并行計算能力,但在近幾年的市場驗證中,也暴露出成本較高、交付周期較長以及功耗偏高等問題。一方面,英偉達正在努力縮短交付周期;另一方面,各類企業(yè)正在創(chuàng)新芯片架構,以期對AI處理器的功耗和成本進行優(yōu)化。因此,ASIC這類適用于特定場景的芯片開始被谷歌、微軟云服務廠商關注。谷歌自2016年開始研發(fā)專用于機器學習TPU(張量處理器),并將其作為AlphaGo的算力底座。TPU采用低精度計算,在保證深度學習效果的同時降低功耗,并提升運算效率。谷歌于今年1月發(fā)布的TPU v5p版本在大模型訓練中的效率相較于v4提升了2.8倍。據(jù)悉,該系列芯片也將應用于谷歌Gemini AI大模型的訓練。2月19日,由前谷歌TPU核心研發(fā)團隊的工程師組建的初創(chuàng)公司Groq也開放了自家產(chǎn)品LPU(語言處理器)的體驗入口。在架構方面,Groq的LPU使用了TSP(張量流處理器)來加速人工智能、機器學習和高性能計算中的復雜工作負載。Groq相關發(fā)言人稱,該處理器的推理能力是英偉達H100的10倍。此外,在AI從云端向終端滲透的過程中,諸多廠商認為NPU(神經(jīng)網(wǎng)絡處理單元)是更加適合AI運算的技術路線。高通的AI PC芯片X
Elite和英特爾酷睿Ultra處理器中均集成了NPU以提升電腦端的AI性能。

架構的多點開花既體現(xiàn)出各大企業(yè)對于通用芯片和專用芯片的取舍,也意味著更多芯片品類的供應商及其上下游企業(yè)有機會分享AI時代的紅利。“在過去幾年,GPU由于其完善的開發(fā)生態(tài)仍然是AI計算的主要選擇。然而,隨著模型參數(shù)不斷增大,芯片對于計算能效的要求相應提升,專用處理器在某些特定AI應用場景中的優(yōu)勢將會十分明顯。綜合考慮應用場景、成本等多方面因素,未來AI計算的硬件芯片選擇將是多技術路線并存的?!北本┐髮W集成電路學院研究員賈天宇告訴《中國電子報》記者。

AI性能帶動先進封裝

在上游芯片設計企業(yè)迎來AI帶來“潑天的富貴”的同時,下游的封裝技術也獲得了增量空間?!吧墒紸I模型需要數(shù)百萬或數(shù)億級別參數(shù)才能進行推理,對芯片的處理速度、容量、帶寬都提出了更高的要求,這將推動以Chiplet(芯粒)為代表的先進封裝技術進一步發(fā)展,帶來封裝行業(yè)的生態(tài)變化?!敝须娍齐娮友b備集團有限公司董事長景璀告訴《中國電子報》記者。芯片的算力與晶體管數(shù)量呈正相關。由于摩爾定律的放緩,芯片的面積已經(jīng)縮小到接近物理極限,即便臺積電、英特爾IFS、三星電子等制造廠商紛紛公布3nm及更先進制程,也面臨著提升成品良率的挑戰(zhàn)。因此,先進封裝技術以及SIP(系統(tǒng)級封裝)等新的封裝方式將會是延續(xù)摩爾定律的有效途徑。

其中,Chiplet技術可謂“掌上明珠”。一方面,Chiplet頗受芯片設計企業(yè)青睞。憑借高靈活性,Chiplet既實現(xiàn)了對不同架構、不同工藝材料的堆疊,也省去了前道的復雜制造工藝,對設計企業(yè)而言更具性價比。有機構統(tǒng)計,有將近30%的高性能CPU和GPU采用了Chiplet設計,包括英偉達、AMD等算力芯片供應商。另一方面,Chiplet的火熱也推動了制造和封測企業(yè)在技術上的不斷創(chuàng)新。英特爾聯(lián)合多個公司確立了UCIe(通用芯?;ミB通道)標準,用于芯片內部的計算區(qū)塊通信,并推出EMIB和Foveros等封裝技術,以便將芯粒無縫集成至封裝中。臺積電此前與賽靈思合作開發(fā)CoWoS封裝技術?;贑hiplet,CoWoS通過互聯(lián)硅中介層互聯(lián)實現(xiàn)多芯片封裝、高密度互連并降低功耗。隨著GPU站上AI風口,臺積電CoWoS產(chǎn)能也迅速告急。在臺積電1月18日舉辦的財報會議上,總裁魏哲家表示AI芯片對先進封裝的需求十分強勁,目前產(chǎn)能仍無法應對客戶強勁需求,供不應求的狀況可能延續(xù)到2025年。

存儲原廠比拼產(chǎn)能與封裝技術

算力是訓練大模型的重要支撐,而存儲性能則與大模型的推理效率緊密相關。在大模型云集、AI應用逐漸落地的背景下,推理能力被越來越多的芯片和云服務廠商強調。因此,在GPU產(chǎn)品中會配置多塊HBM(高帶寬存儲)以削弱芯片在AI計算中的內存墻效應,進一步降低延遲。HBM在2024年的競爭將會更加激烈。美光CEO Sanjay Mehrotra在2023年年底的財報會議上透露,AI芯片對HBM的需求旺盛,美光2024年的HBM產(chǎn)能預計已全部售罄——于2024年年初量產(chǎn)的HBM3E有望為美光創(chuàng)造數(shù)億美元的營收。無獨有偶,2月,SK海力士副總裁金基泰發(fā)文表示,雖然2024年才剛開始,但今年SK海力士旗下的HBM已經(jīng)全部售罄。同時,公司為了保持HBM的市場領先地位,已開始為2025年做準備。三星電子緊隨其后,在2月27日正式推出12層堆疊HBM3E,比前代產(chǎn)品的帶寬提升50%,預計將于下半年投入量產(chǎn)。

普遍來講,存儲芯片的堆疊層數(shù)越高,其性能越強,但發(fā)熱和良率等問題也越明顯。因此,與算力芯片類似,先進封裝及其相關技術也成為了存儲芯片提升性能的重要手段。除了HBM中常見的封裝技術TSV(硅通孔)之外,三星電子努力消除堆疊層之間NCF(非導電薄膜)材料的厚度。據(jù)悉,三星電子12層堆疊的HBM3E采用了熱壓非導電薄膜技術,將芯片間隙壓縮至最小7微米,使得12層與此前8層堆疊產(chǎn)品的高度保持一致。SK海力士自研了MR-MUF(批量回流模制底部填充)技術,區(qū)別于在每層芯片上鋪薄膜材料,該技術通過在堆疊的芯片之間注入保護材料,以提升工藝效率和散熱性。SK海力士副社長孫皓榮表示:“為了實現(xiàn)不同的人工智能應用,人工智能存儲器的特性也應該多元化。我們的目標是以各種先進封裝技術來應對這些變化。”

材料和架構創(chuàng)新助力低功耗

AI芯片除了通過調整架構和先進封裝技術提升算力和存力,還需考慮功耗因素。一方面,在數(shù)據(jù)中心里,AI服務器的功耗逐漸增加將催生新的解決方案。據(jù)了解,英偉達H100的功耗達到了700W,而之后將推出的B100功耗還會再增加40%,這就驅使現(xiàn)有的制冷技術進一步優(yōu)化。英偉達CEO黃仁勛此前透露公司的下一代產(chǎn)品將會采用液冷方案,戴爾公司首席運營官JeffClarke也表示“工程團隊為(英偉達)這款新產(chǎn)品做好了準備,為GPU帶來高功耗所需的散熱解決方案”。

由于發(fā)展AI需要大量算力支撐,這也使得對電力的需求飆升,此時寬禁帶半導體和儲能也將發(fā)揮作用。“大型計算基礎設施的運行需要更高功率、更高能效的電力電子設備去支撐,這對碳化硅、氮化鎵等寬禁帶半導體市場將是一個新的增長點?!鄙钲诨景雽w有限公司總經(jīng)理和巍巍告訴《中國電子報》記者,“另外,未來AI技術的發(fā)展將高度依賴于能源,特別是光伏和儲能技術的進步,這也與半導體行業(yè)息息相關?!?/p>

另一方面,AI正在經(jīng)歷從云到端的滲透,端側更加重視低功耗的需求。存內計算將有可能成為在邊緣側進行AI計算的全新范式。“相較于云端的大算力GPU,終端智能計算芯片在保障性能的同時更追求低功耗、低成本。存算一體類的新技術具有低功耗的優(yōu)勢,未來有望在廣泛的邊緣智能計算中發(fā)揮作用。”賈天宇表示。當前存內計算已經(jīng)應用于視覺、健康等智能終端設備中,未來也有望在邊緣側、自動駕駛乃至數(shù)據(jù)中心得到應用。有機構報告顯示,2023年存內計算的市場規(guī)模有近177億美元,2030年將達到526億美元,年復合增長率16.8%。

對于存內計算而言,市場前景與技術挑戰(zhàn)并存。知存科技創(chuàng)始人兼CEO王紹迪向《中國電子報》記者表示:“以手機端跑AI大模型為例,現(xiàn)在手機中16GB的LPDDR5已經(jīng)超過70美金,70GB/s的帶寬(對比云端服務器帶寬近1TB/s)在短時間內也不易提升,同時帶寬的擴大必然會引發(fā)功耗升高。存內計算相比傳統(tǒng)架構AI芯片在成本、容量、帶寬和功耗各項能效上都具有很大優(yōu)勢,雖然短時間內滿足邊緣側的模型算力需求并且達到很好的應用效果仍有很大挑戰(zhàn),但這是一件非常值得去做的事?!?/p>

作者丨王信豪編輯丨張心怡美編丨馬利亞監(jiān)制丨連曉東

推薦器件

更多器件
器件型號 數(shù)量 器件廠商 器件描述 數(shù)據(jù)手冊 ECAD模型 風險等級 參考價格 更多信息
MK66FN2M0VLQ18 1 NXP Semiconductors FLASH, 180MHz, RISC MICROCONTROLLER, PQFP144

ECAD模型

下載ECAD模型
$48.66 查看
ATXMEGA128A4U-MHR 1 Atmel Corporation RISC Microcontroller, 16-Bit, FLASH, AVR RISC CPU, 32MHz, CMOS, PQCC44, 7 X 7 MM, 1 MM HEIGHT, 0.50 MM PITCH, GREEN, PLASTIC, MO-220VKKD-3, VQFN-44
$4.48 查看
AT91SAM9G20B-CU 1 Atmel Corporation RISC Microcontroller, 32-Bit, FAST, ARM9 CPU, 400MHz, CMOS, PBGA217, 15 X 15 MM, 0.80 MM PITCH, GREEN, MO-205, LFBGA-217

ECAD模型

下載ECAD模型
$11.13 查看

相關推薦

電子產(chǎn)業(yè)圖譜