早幾年出現(xiàn)的折疊屏沒(méi)能拯救頹勢(shì)的手機(jī)市場(chǎng),直接證據(jù)就是去年全球出貨量依舊拉胯,同比下滑3.2%至11.7億部,為近十年來(lái)最低。
好在Q4出現(xiàn)了些許回暖,全球和中國(guó)市場(chǎng)分別有8.5%和1.2%的同比增幅,尤其是后者,在連續(xù)同比下降10個(gè)季度后首次轉(zhuǎn)正。
很難說(shuō)這其中沒(méi)有AI的功勞。
2023下半年起,以谷歌、三星、OPPO為代表的廠商將大模型內(nèi)置于智能手機(jī)中,完成從云端AI向終端AI的轉(zhuǎn)變,AI手機(jī)浪潮正式開(kāi)啟。
IDC更是預(yù)測(cè),2024年全球新一代AI手機(jī)出貨量將達(dá)1.7億部,占智能手機(jī)總出貨量的近15%。
于是,AI就成了比折疊屏更有效的“救命稻草”,但在產(chǎn)業(yè)鏈眼里,TA更像是一顆“搖錢(qián)樹(shù)”。
1、端側(cè)AI能省錢(qián)
高通曾在去年9月出過(guò)一份報(bào)告,標(biāo)題言簡(jiǎn)意賅——混合AI是AI的未來(lái)。
這份報(bào)告的核心是高通借大模型云端推理的“宕機(jī)”現(xiàn)象,再次向市場(chǎng)強(qiáng)調(diào)終端和云端協(xié)同工作的混合AI才是真正的首選。
所謂混合AI,是在以云為中心的場(chǎng)景下,終端將根據(jù)自身能力,在可能的情況下從云端分擔(dān)AI工作負(fù)載;而在其他場(chǎng)景下,計(jì)算將主要以終端為中心,必要時(shí)向云端分流任務(wù)。
高通的邏輯是,類比傳統(tǒng)計(jì)算從大型主機(jī)和瘦客戶端演變?yōu)楫?dāng)前云端和PC、智能手機(jī)等邊緣終端相結(jié)合的模式,生成式AI也將形成云端和終端結(jié)合的形式。
但這份報(bào)告的真正意圖,是高通提出的兩個(gè)趨勢(shì):
AI算力將由現(xiàn)在的云端集中部署逐漸轉(zhuǎn)變?yōu)樵贫伺c終端靈活分配;大模型將逐漸向終端滲透。
事實(shí)上,在高通拿出這份報(bào)告前,它的那些合作伙伴早就這么干了,而之所以跑的快,不僅是對(duì)未來(lái)趨勢(shì)的準(zhǔn)確預(yù)判,更重要的是省錢(qián)。
算法交易公司Deep Trading的創(chuàng)始人Yam Peleg曾算過(guò)一筆賬,8K版本的ChatGPT云端推理成本為0.0049美分/千token(128個(gè)A100 GPU)。以全球1.8億日活躍用戶、每人每天100千token推理需求測(cè)算,ChatGPT4在云端進(jìn)行推理的成本約為88.2萬(wàn)美元/天。
如果換到用戶量更大的智能手機(jī)上呢?
按照vivo副總裁周圍公布的數(shù)據(jù),vivo大模型單次對(duì)話成本約為0.012-0.015元/次,當(dāng)前vivo全國(guó)用戶數(shù)約為3億。以2.5億日活用戶(假設(shè)的未來(lái)滲透率天花板)、每人每天10次對(duì)話需求測(cè)算,vivo大模型每天云端推理的成本就要3000萬(wàn)-3750萬(wàn)人民幣。
假設(shè)以50%分流率計(jì)算,將一半的推理分流至端側(cè)進(jìn)行,那么vivo每年將節(jié)約55-68億人民幣的云端運(yùn)算成本。
看在錢(qián)的份上,不搞端側(cè)AI都不行。只是,手機(jī)廠商雖然目標(biāo)高度一致,但在解決大模型手機(jī)內(nèi)存瓶頸的問(wèn)題上,卻出現(xiàn)了分歧。
2、三條路線
眾所周知,大型語(yǔ)言模型的泛化能力及通用性取決于其參數(shù)量,如GPT-4擁有16個(gè)專家模型,共包含1.8萬(wàn)億個(gè)參數(shù)。大多數(shù)大模型都在具有強(qiáng)大服務(wù)器硬件支持的云端運(yùn)營(yíng),若直接部署于終端設(shè)備,則需要設(shè)備擁有足夠大的內(nèi)存。
哪怕參數(shù)量較小的主流AI大模型也有70億或130億參數(shù),分別需要約14GB和20GB的內(nèi)存。例如有70億參數(shù)的小型LLaMA,其FP16版本大小為14GB,遠(yuǎn)超當(dāng)前手機(jī)的內(nèi)存承載能力。
為了解決這個(gè)難題,當(dāng)前主要有三種技術(shù)路線:一是直接拔高終端內(nèi)存,二是壓縮大模型體積,三是優(yōu)化內(nèi)存調(diào)用邏輯。
三條路線分別對(duì)應(yīng)著三個(gè)陣營(yíng),以微軟、聯(lián)想、OPPO為代表的勢(shì)力致力于大模型壓縮路線,蘋(píng)果擬通過(guò)優(yōu)化閃存交互和內(nèi)存管理邏輯來(lái)解決內(nèi)存壁壘,希望通過(guò)直接拔高終端內(nèi)存以突破瓶頸的3DDram技術(shù),代表則是內(nèi)存廠商。
首先來(lái)看規(guī)?;疃嗟拇竽P蛪嚎s,主要包括量化、剪枝及蒸餾等幾種方案。
大模型壓縮翻譯過(guò)來(lái)其實(shí)就是在不影響性能的前提下縮減模型的資源占用。比如通過(guò)INT4量化技術(shù)支持,AquilaChat2-34B僅需接近7B級(jí)別模型的GPU資源消耗,即可提供超過(guò)Llama2-70B模型的性能,同時(shí)內(nèi)存占用大幅降低70%,而綜合性能指標(biāo)僅降低了0.7%。
再比如屬于剪枝方案的微軟SliceGPT技術(shù),實(shí)驗(yàn)數(shù)據(jù)顯示,該技術(shù)可以為L(zhǎng)LAMA-2 70B、OPT 66B和Phi-2模型去除多達(dá)25%的模型參數(shù)(包括嵌入),同時(shí)分別保持密集模型99%、99%和90%的零樣本任務(wù)性能。
其次是優(yōu)化內(nèi)存管理。如前文所分析,70億參數(shù)的模型僅加載參數(shù)就需要超過(guò)14GB的內(nèi)存,這超出了大多數(shù)智能手機(jī)的能力。
蘋(píng)果提出將模型參數(shù)存儲(chǔ)在至少比DRAM大一個(gè)數(shù)量級(jí)的閃存上,然后在推理過(guò)程中直接且巧妙地從閃存中加載所需的參數(shù)。
具體而言,蘋(píng)果構(gòu)建了一個(gè)以閃存為基礎(chǔ)的推理成本模型,并使用窗口化(Windowing)以及行列捆綁(Row-Column Bundling)兩項(xiàng)關(guān)鍵技術(shù),來(lái)最小化數(shù)據(jù)傳輸并最大化閃存吞吐量。
更具體的技術(shù)實(shí)現(xiàn)步驟這里就不做贅述,總之蘋(píng)果的閃存方法實(shí)現(xiàn)了可以運(yùn)行比設(shè)備DRAM容量大兩倍的模型,并在CPU和GPU上分別比傳統(tǒng)方法提速4-5倍和20-25倍。
美光CEO此前的說(shuō)法是,AI手機(jī)的內(nèi)存容量預(yù)計(jì)將比當(dāng)今非AI旗艦手機(jī)高出50%到100%。除了壓縮和優(yōu)化,還有一個(gè)看似是笨辦法的辦法就是直接拔高終端內(nèi)存,也就是3D Dram(垂直存儲(chǔ)器)技術(shù)。
3D Dram是一種利用垂直堆疊方式,將存儲(chǔ)單元置于一個(gè)二維陣列中,通過(guò)垂直疊加顯著提高容量的技術(shù)。相當(dāng)于蓋起了復(fù)式,降低平面面積占用的同時(shí),增加單位面積內(nèi)的存儲(chǔ)容量,從而實(shí)現(xiàn)容量的最大化。
根據(jù)Neo Semiconductor的估計(jì),3D X-DRAM技術(shù)可以跨230層實(shí)現(xiàn) 128Gb的密度,是當(dāng)前DRAM密度的八倍。NEO提出每十年容量增加8倍的目標(biāo),目標(biāo)是在2030年至2035年間實(shí)現(xiàn)1Tb容量,比目前DRAM核心容量增加64倍。
3、誰(shuí)能受益?
雖然路線不同,但在可行性的前提,各個(gè)陣營(yíng)都能達(dá)到一定程度上的預(yù)期效果。
比如芯片廠,無(wú)論是高通還是聯(lián)發(fā)科,都在推行端側(cè)AI下的大模型壓縮,目的自然是為了讓下一代芯片能夠支撐起手機(jī)廠商嵌入大模型的需求。只要完成了這個(gè)需求,它們就能是率先吃到紅利的一方。
復(fù)盤(pán)4G到5G的迭代過(guò)程,高通就是靠著特殊供需關(guān)系,直接將手機(jī)廠商的芯片采購(gòu)成本翻了一倍。
以三星為例,GalaxyS20 Ultra(12G+256G)物料成本中,驍龍865 SoC的整體成本超過(guò)150美元,比2019年上半年不包含X50基帶的驍龍855 4G移動(dòng)平臺(tái)貴1倍左右。
芯片廠對(duì)手機(jī)廠商又有絕對(duì)的議價(jià)權(quán),供需失衡下價(jià)格掌控能力更強(qiáng)的一方,是很樂(lè)意把支持端側(cè)AI的SoC價(jià)格打上去的。
在SoC之外,還有一個(gè)零部件能在這波AI升級(jí)中受益,但可能很多人想不到。
在三星S24系列的拆機(jī)結(jié)果中,人們發(fā)現(xiàn)不僅石墨散熱片有額外增加,連平均散熱板面積也被提升了,算下來(lái)S24、S24+、S24 Ultra分別大了1.5、1.6、1.9倍。
最后測(cè)算下來(lái),S24 Ultra里增加的散熱材料,相較上一代5G手機(jī)每部多出來(lái)11元。若考慮高性能、高價(jià)格的石墨烯滲透率提高帶來(lái)的價(jià)值增量,還能再增加3塊錢(qián)。
還有一個(gè)零部件,是類似SoC的內(nèi)存。
根據(jù)前文所述,在大模型體積壓縮、優(yōu)化內(nèi)存調(diào)用邏輯、3DDram技術(shù)發(fā)展等三路線共同作用下,當(dāng)前16/24GB內(nèi)存已具備運(yùn)行端側(cè)大模型的條件,且未來(lái)內(nèi)存容量仍有跨越式提升的空間,容量已不再是桎梏,提升帶寬以適應(yīng)復(fù)雜AI任務(wù)是更為迫切的需求。
JEDEC固態(tài)技術(shù)協(xié)會(huì)已經(jīng)正式完成了LPDDR 6內(nèi)存標(biāo)準(zhǔn)的定稿,預(yù)計(jì)將會(huì)在2024年第三季度正式發(fā)布,目前LPDDR5X內(nèi)存的主流帶寬為8533Mbps,而LPDDR6帶寬可以達(dá)到12.8Gbps,比LPDDR5X高出了54%,LPDDR6X更是擁有17Gbps的帶寬。
受益于AI手機(jī)對(duì)高帶寬內(nèi)存的需求,預(yù)計(jì)LPDDR5/LPDDR5X/LPDDR6將持續(xù)供不應(yīng)求。三星和海力士申請(qǐng)LPDDR6 RAM認(rèn)證后,將會(huì)率先量產(chǎn)LPDDR6內(nèi)存,同芯片廠一樣,供需關(guān)系也決定了LPDDR6的漲價(jià)。
4、尾聲
作為下游的手機(jī)廠,在這場(chǎng)技術(shù)迭代革命里是要爭(zhēng)取主動(dòng)的。
AI催生的換機(jī)潮確實(shí)會(huì)帶來(lái)一波量?jī)r(jià)齊升,但參考上一輪迭代,僅靠組裝而生的手機(jī)廠商無(wú)法獲得大規(guī)模溢利。
也就是說(shuō),想要吃到更大的紅利,尤其在軟硬件成本高企的情況下,就必須具備自研能力,比如最重要的大模型和芯片。
當(dāng)然在今天的環(huán)境下,高企的大模型訓(xùn)練成本和供需錯(cuò)配的高性能AI推理芯片,都對(duì)手機(jī)廠商提出了嚴(yán)峻挑戰(zhàn)。但同時(shí)具備這兩項(xiàng)自研能力的,就有了成本可控及供應(yīng)穩(wěn)定的一體化優(yōu)勢(shì)。
而其它不具備或不完全具備的廠商,也不是一定會(huì)被淘汰。拿捏不了上游,可以轉(zhuǎn)身去拿捏下游。
智能手機(jī)的下游,就是移動(dòng)互聯(lián)網(wǎng)了。
高度智能化的AI手機(jī)應(yīng)擺脫臃腫、繁多的APP,垂直整合端側(cè)應(yīng)用,深層次聯(lián)通各個(gè)獨(dú)立的孤島,用戶一個(gè)指令可以調(diào)動(dòng)多個(gè)APP自動(dòng)解決需求,提供一站式服務(wù)。
因此,高度智能化的手機(jī)必須由其自身來(lái)集成各類數(shù)據(jù)、權(quán)限、應(yīng)用,而單個(gè)應(yīng)用無(wú)法這一點(diǎn),所以天然占據(jù)了各項(xiàng)功能入口的手機(jī)廠商,就有了取代部分App開(kāi)發(fā)商的可能,進(jìn)一步瓜分流量及變現(xiàn)。
以智能修圖、錄音摘要功能為例,運(yùn)行端側(cè)大模型的AI手機(jī)將部分或全部取代孤立的修圖類(如美圖秀秀)、錄音類App(如訊飛聽(tīng)見(jiàn)),此類功能將集成于手機(jī)的操作系統(tǒng)中,完全內(nèi)置于攝像、通話功能中。
對(duì)上述App來(lái)說(shuō),這一切已經(jīng)發(fā)生了,而未來(lái)還會(huì)有更多App被集成、替代。
免責(zé)聲明:本文基于已公開(kāi)的資料信息或受訪人提供的信息撰寫(xiě),但解碼Decode及文章作者不保證該等信息資料的完整性、準(zhǔn)確性。在任何情況下,本文中的信息或所表述的意見(jiàn)均不構(gòu)成對(duì)任何人的投資建議。