加入星計劃,您可以享受以下權(quán)益:

  • 創(chuàng)作內(nèi)容快速變現(xiàn)
  • 行業(yè)影響力擴散
  • 作品版權(quán)保護
  • 300W+ 專業(yè)用戶
  • 1.5W+ 優(yōu)質(zhì)創(chuàng)作者
  • 5000+ 長期合作伙伴
立即加入
  • 正文
    • 生成式AI推動下,云計算+AI的交融創(chuàng)新
    • 豆包大模型高速增長背后——高性能、智能算力底座的重要性
    • 走近至強6——生成式AI基礎(chǔ)設(shè)施的“超級大腦”
    • 寫在最后
  • 相關(guān)推薦
  • 電子產(chǎn)業(yè)圖譜
申請入駐 產(chǎn)業(yè)圖譜

豆包大模型高速增長背后,至強6處理器和火山引擎實現(xiàn)云+AI的交融創(chuàng)新

13小時前
526
閱讀需 16 分鐘
加入交流群
掃碼加入
獲取工程師必備禮包
參與熱點資訊討論

中國信通院發(fā)布的《2024全球數(shù)字經(jīng)濟白皮書》顯示,2023年至2024年第一季度,中國共涌現(xiàn)出71家AI獨角獸企業(yè),其中大模型數(shù)量占比高達36%,即478個。隨著基礎(chǔ)通用大模型的能力上限被不斷刷新,算力成本、功耗、技術(shù)門檻、行業(yè)落地等問題與挑戰(zhàn)也越來越突出,如何從底層算力、平臺、應(yīng)用場景等維度尋求破局,成為大模型落地的關(guān)鍵。

對于企業(yè)來說,如何更好地迎接以大模型為基礎(chǔ)的AI時代?這其實需要在性價比、創(chuàng)新性以及安全等方面做好準備,也意味著需要打造以AI負載為中心的基礎(chǔ)架構(gòu)新范式。日前,在2024火山引擎FORCE原動力大會期間,英特爾與火山引擎聯(lián)合發(fā)布的第四代云服務(wù)器實例引起了廣泛關(guān)注,該實例不僅降低了大模型的應(yīng)用門檻,更通過云與AI深度融合的服務(wù)能力,推動了AI技術(shù)邊界的不斷拓展。

生成式AI推動下,云計算+AI的交融創(chuàng)新

大模型應(yīng)用首先離不開強大的算力支持,尤其是隨著需求增長,高性能異構(gòu)算力的重要性越發(fā)突顯,同時,綠色節(jié)能方案變得至關(guān)重要,以確保技術(shù)發(fā)展的可持續(xù)性。

過去十幾年,移動互聯(lián)網(wǎng)迅猛發(fā)展,英特爾作為基礎(chǔ)技術(shù)提供者,支持了字節(jié)跳動等新一代互聯(lián)網(wǎng)企業(yè)的崛起。如今,隨著ChatGPT等技術(shù)的推動,生成式AI技術(shù)迎來了快速發(fā)展,一個波瀾壯闊的新紀元即將開啟。

“在生成式AI主導(dǎo)的新時代,融合AI技術(shù)與云計算成為了必然趨勢。云計算作為一個強大的支撐平臺,將持續(xù)助力大模型效果、性能的不斷提升。而反過來,大模型技術(shù)的每一次創(chuàng)新,又會成為推動云計算技術(shù)發(fā)展與創(chuàng)新的強大動力”,英特爾市場營銷集團副總裁、中國區(qū)云與行業(yè)解決方案和數(shù)據(jù)中心銷售部總經(jīng)理梁雅莉談到。

移動互聯(lián)網(wǎng)時代,應(yīng)用的核心在于連接——無論是人與人之間,還是人與世界的聯(lián)系,其本質(zhì)都是提升協(xié)作效率。而大模型技術(shù)催生的智能體通過協(xié)作共進,解鎖了更高級的能力,為實現(xiàn)更高級的通用人工智能打下了堅實的基礎(chǔ),未來將是一個虛實交融、智能互連的新世界。

梁雅莉表示,在這一過程中,AI和云計算將會是不斷更迭、不斷創(chuàng)新的交融。移動互聯(lián)網(wǎng)時代,行業(yè)熟知的云計算服務(wù)以IaaS、PaaS為代表,分別為云原生應(yīng)用的構(gòu)建提供基礎(chǔ)計算資源和軟件平臺級服務(wù)。而邁入AI時代,面對重新定義的大模型應(yīng)用架構(gòu)和開發(fā)運營模式,云計算的邊緣在不斷擴展,MaaS(模型即服務(wù))會成為互聯(lián)網(wǎng)企業(yè)核心的AI技術(shù)輸出能力,也是主要變現(xiàn)的能力。

面對新的發(fā)展趨勢,英特爾與字節(jié)跳動旗下的云服務(wù)平臺——火山引擎密切合作,從算力、平臺、應(yīng)用場景等多個維度探索創(chuàng)新的解決方案。

對于火山引擎來說,PaaS層面衍生出了扣子Coze這樣基于智能體、工作流方式的大模型應(yīng)用孵化平臺;IaaS 層面聚焦于滿足訓(xùn)練、開發(fā)驗證等多樣算力的需求。對于輕量級大模型應(yīng)用開發(fā)場景,火山引擎為開發(fā)者提供了g4il云實例,相較于GPU實例,資源門檻直降50%,背后正是英特爾至強6性能核的加持。

并且在智能體領(lǐng)域,英特爾與“扣子”合作推出了增強版的扣子智能體開發(fā)平臺——Coze-AIPC。通過引入基于英特爾PC端平臺的扣子App,并通過創(chuàng)新的“端插件”機制,使PC操控、本地知識庫等AIPC的端側(cè)能力可以被無縫嵌入扣子大模型與工作流,從而為開發(fā)者提供便捷、低時延和具備成本效益的端云協(xié)同智能體新體驗。

值得強調(diào)的是,至強6性能核主要用于通用計算、數(shù)據(jù)Web服務(wù)、科學(xué)計算、AI等場景。性能相比上一代平均提高超過2倍,尤其是科學(xué)計算,有超過2.5倍的提高,對AI大語言模型甚至有超過3倍的性能提高。與此同時,至強6性能核還兼顧了能效,是上代的1.5倍甚至更高。通過至強6性能核,英特爾滿足了AI數(shù)據(jù)中心對高性能、低成本、穩(wěn)定性、安全性和綠色節(jié)能的需求。

火山引擎基于此打造的新一代云實例,不僅具備高效彈性能力,還能充分保障數(shù)據(jù)安全,并在AI推理等智算任務(wù)上實現(xiàn)性能的大幅提升。

豆包大模型高速增長背后——高性能、智能算力底座的重要性

在競爭激烈的大模型市場,豆包大模型脫穎而出,日均調(diào)用量從5月份的1,200億tokens增長至12月的4萬億tokens,7個月內(nèi)增長超過33倍,成為國內(nèi)AI應(yīng)用中的佼佼者。并且,豆包大模型仍正不斷優(yōu)化和擴展,包括新成員豆包視覺理解模型的加入,都標志著大模型向多模態(tài)應(yīng)用邁進的關(guān)鍵一步。

豆包大模型的高速增長,是市場快速發(fā)展的一個縮影,體現(xiàn)了算力在AI技術(shù)發(fā)展中的核心作用——高性能的異構(gòu)算力直接關(guān)系到大模型的性能和效率,以及迭代創(chuàng)新的速度。

火山引擎彈性計算產(chǎn)品負責(zé)人王睿,分享了火山引擎基于英特爾技術(shù)打造的彈性算力底座的產(chǎn)品化實踐。他強調(diào),隨著生成式AI和大模型訓(xùn)練的興起,全球?qū)λ懔Φ男枨蠹ぴ觯癸@了智算平臺基礎(chǔ)設(shè)施的重要性。火山引擎通過海量資源共池,滿足企業(yè)在AI技術(shù)和智算化轉(zhuǎn)型中的算力需求,同時通過共池釋放成本紅利給客戶,實現(xiàn)了百萬規(guī)模的資源彈性,天級別可實現(xiàn)50萬核的彈性能力,峰值可以達到100萬核,分鐘級別可達10萬核。

據(jù)介紹,全新發(fā)布的第四代通用計算型實例g4il,搭載了最新的英特爾至強6性能核處理器和火山引擎自研的DPU,實現(xiàn)了計算、存儲和網(wǎng)絡(luò)性能的全面升級。相比上一代產(chǎn)品,g4il在視頻轉(zhuǎn)碼、Web應(yīng)用、和數(shù)據(jù)庫應(yīng)用方面分別實現(xiàn)了17%、19%和20%的性能提升。此外,g4il進一步豐富了實例的功能,比如新增了大包傳輸能力(Jumbo Frame)、機密計算能力(TDX)、以及支撐最新云盤吞吐類型SSD。

王睿強調(diào),英特爾至強6性能核處理器上新增了高速內(nèi)存MRDIMM,同時新增了支持AMX FP16指令集,更大的內(nèi)存帶寬疊加更強的矩陣運算能力,為AI推理加速提供了更優(yōu)的底層基礎(chǔ)環(huán)境。火山引擎基于開源模型Llama2 7B上實現(xiàn)了大幅性能提升。GNR加上MRDIMM,實測的吞吐性能相比英特爾EMR CPU加上通用型DDR5內(nèi)存,最高提升可以達到80%。同時相比單卡的A10和L20 GPU測試結(jié)果也得到了印證,有很大的優(yōu)勢。

除了AI推理方面的極致性能,用戶也越來越關(guān)注整體安全性。針對云上的AI場景,火山引擎打造了端到端安全解決方案,基于CPU和GPU硬件機密計算能力,火山引擎在固件、內(nèi)核、虛擬化以及操作系統(tǒng)等方面做了深度調(diào)優(yōu),在云服務(wù)器產(chǎn)品上,高效使能了機密計算能力,將內(nèi)存加密等特性造成的性能損失降到最低。

此外,火山引擎還推出了業(yè)界首創(chuàng)的彈性預(yù)約制售賣方式,支持免費資源提前預(yù)約,自動交付,節(jié)省成本超過33%。百萬規(guī)模的彈性資源池為各種極致彈性應(yīng)用場景提供了澎湃算力。

“在新一代AI基礎(chǔ)架構(gòu)中,我們判斷大模型對算力規(guī)模、算力性能,集群內(nèi)通信效率、模型訓(xùn)練和并行模式、存儲性能、隱私安全等都會有更高要求,我們希望和英特爾持續(xù)攜手,更好應(yīng)對智算時代的新挑戰(zhàn)”,王睿表示。

走近至強6——生成式AI基礎(chǔ)設(shè)施的“超級大腦”

為了滿足數(shù)據(jù)中心對高性能、低成本、穩(wěn)定性、安全性以及綠色節(jié)能的需求,英特爾推出了新一代至強6處理器。這款處理器結(jié)合了能效核和性能核的雙微架構(gòu)設(shè)計,實現(xiàn)了性能的大幅提升和能效比的重大突破,契合了AI數(shù)據(jù)中心對高性能、低成本、穩(wěn)定性、安全性以及綠色節(jié)能的需求。特別是在AI推理方面的表現(xiàn)尤為突出,它就像是一個超級“大腦”,提供強大的計算能力和高效的數(shù)據(jù)處理速度,使得復(fù)雜的AI任務(wù)能夠快速且高效執(zhí)行。

QAT加速器實現(xiàn)云存儲性能提升

其中,內(nèi)嵌式加速器QAT、IAA、DSA、DLB等,實現(xiàn)了在不同場景下卸載CPU算力,助力了整機算力的綜合提升。目前,英特爾和字節(jié)跳動在QAT方面的合作已經(jīng)取得了顯著成效。

事實上,QAT并不是一項新技術(shù),而是英特爾至強6處理器第一次把它用于CPU中。據(jù)英特爾技術(shù)專家解釋說,QAT主要帶來三方面好處:

  • 第一,性能。Gzip的壓縮每個核大概每秒只能達到100MB的速度,相對QAT來說,是5GB/s的速度,這是非常大的提升。
  • 第二,可擴展性。CPU上的QAT最多可以支持四個,一方面可以針對實際需求進行定制化,另一方面也可以選擇所需要的CPU型號。
  • 第三,QAT在帶來高性能的同時,功耗也非常低,在性能功耗比方面有顯著提升。在很多應(yīng)用場景中,例如存儲,用戶需要通過QAT節(jié)省CPU核,提升TCO。

QAT主要提供三種能力:第一,非對稱加解密,用于Web服務(wù)、負載均衡器、內(nèi)容分發(fā)網(wǎng)絡(luò)中的TLS握手過程;第二,壓縮和解壓縮:支持多種格式,如LZ4、Gzip,以及最新版本中的ZSDT;第三,對稱加解密:利用CPU的AVX-512指令集,減少CPU消耗。

用QAT來測TLS卸載的每秒連接數(shù),通過8核16線程加上4個QAT,可以提供的計算能力相當(dāng)于是超過50個CPU核的計算能力,可以達到節(jié)省84%的核的效果。壓縮性能方面,第四代至強處理器的QAT相比PCIe形式的QAT,性能提升2倍。

在英特爾和火山引擎云存儲團隊共同開發(fā)的底層的存儲庫veSAL中,成功引入了QAT。壓縮時,一個QAT提供3.8GB/s的帶寬,大概可以節(jié)省6-8個核心的計算能力;解壓縮時,大概是2.5個核的計算能力(這是基于公開數(shù)據(jù)集得出的結(jié)論)。

至強6機密計算的虛擬化實踐

伴隨機器學(xué)習(xí)、大模型應(yīng)用等高算力場景越來越多,用戶數(shù)據(jù)需要在通用處理器和異構(gòu)加速器之間進行協(xié)同計算。英特爾TDX Connect技術(shù),能夠使用戶數(shù)據(jù)在異構(gòu)加速場景中得到機密性保護,既保障了數(shù)據(jù)安全,又滿足了異構(gòu)加速對高算力的需求。

TDX本身基于虛擬化技術(shù),針對機密計算需求,英特爾做了芯片微架構(gòu)層面的擴展,引入了新的機密虛擬化模式。英特爾技術(shù)專家表示,今天在云場景中,大部分業(yè)務(wù)都是運行在虛擬化環(huán)境里面的,所以用戶的應(yīng)用只要能跑在虛擬化環(huán)境中,就可以不做任何應(yīng)用層面的代碼修改,直接升級遷移為機密計算的解決方案。基于這種方式,可以大大降低用戶存量應(yīng)用升級為機密計算的成本。

TDX為數(shù)據(jù)安全提供了多層次的保護能力,當(dāng)用戶虛擬化實例數(shù)據(jù)寫入內(nèi)存的過程中,利用內(nèi)存控制器上基于硬件的加解密引擎進行實時加密,可以確保用戶數(shù)據(jù)在內(nèi)存中始終是密態(tài)隔離方式,即便是在云計算這種復(fù)雜環(huán)境中,哪怕系統(tǒng)中有不可靠、不可信的軟件,甚至是黑客攻擊,只要不進入虛擬機內(nèi)部,用戶數(shù)據(jù)始終是安全的。

如今,互聯(lián)網(wǎng)應(yīng)用迭代速度之快,部署模式之復(fù)雜多樣,早已超出了傳統(tǒng)應(yīng)用的范疇。為了確保用戶應(yīng)用從傳統(tǒng)計算模式向機密計算遷移過程中在基礎(chǔ)軟件上實現(xiàn)零投入,英特爾在TDX或機密虛擬化軟件生態(tài)秉承全面開源策略,包括操作系統(tǒng)、虛擬機控制器以及云原生軟件棧和遠程證明軟件棧,統(tǒng)統(tǒng)提供了開源的生態(tài)支持?;陂_源生態(tài),用戶應(yīng)用可以彈性支持IaaS、PaaS、FaaS等多種業(yè)務(wù)模型。

寫在最后

底層算力是推動AI釋放巨大潛能的關(guān)鍵要素之一,一個功能全面、性能卓越、可靠且具有高可擴展性的計算平臺是當(dāng)前所需。

得益于至強6性能核處理器的領(lǐng)先性能,英特爾助力火山引擎第四代通用計算型實例g4il顯著提高了計算效率和系統(tǒng)穩(wěn)定性?;谟⑻貭栔翉?火山引擎云實例進行大模型開發(fā)應(yīng)用,一定程度上實現(xiàn)了資源低門檻和軟件高起點。它讓大模型推理性能升級,大模型應(yīng)用開發(fā)前期可多聚焦于應(yīng)用效果優(yōu)化。軟件方面,英特爾攜手火山引擎,提供預(yù)驗證優(yōu)化模塊與組件、集成鏡像達成應(yīng)用一鍵部署,確保基于開源方案開發(fā)也可以有更好的效果和性能。

此外,英特爾至強處理器也為火山引擎帶來了更高的數(shù)據(jù)存儲效率和可靠性。正如前文所說,英特爾的QAT、TDX等技術(shù),對云存儲效率、云上AI的端到端機密計算都帶來了顯著的性能提升。

英特爾

英特爾

英特爾在云計算、數(shù)據(jù)中心、物聯(lián)網(wǎng)和電腦解決方案方面的創(chuàng)新,為我們所生活的智能互連的數(shù)字世界提供支持。

英特爾在云計算、數(shù)據(jù)中心、物聯(lián)網(wǎng)和電腦解決方案方面的創(chuàng)新,為我們所生活的智能互連的數(shù)字世界提供支持。收起

查看更多

相關(guān)推薦

電子產(chǎn)業(yè)圖譜

與非網(wǎng)資深行業(yè)分析師。主要關(guān)注人工智能、智能消費電子等領(lǐng)域。電子科技領(lǐng)域?qū)I(yè)媒體十余載,善于縱深洞悉行業(yè)趨勢。歡迎交流~