NVIDIA DGX Cloud 集成到 Hugging Face 平臺將加速大語言模型(LLM)的訓練和調優(yōu),簡化了幾乎每個行業(yè)的模型定制
NVIDIA 與 Hugging Face 宣布建立合作伙伴關系,為數百萬開發(fā)者提供生成式 AI 超級計算服務,幫助他們構建大語言模型(LLM)和其他高級 AI 應用。
此次合作將使開發(fā)者能夠使用 Hugging Face 平臺內的 NVIDIA DGX? Cloud AI 超級計算為高級 AI 模型進行訓練及調優(yōu),借助為智能聊天機器人、搜索、摘要等特定行業(yè)應用的業(yè)務數據定制的大語言模型(LLM),推動生成式 AI 在各個行業(yè)中的應用。
NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“研究人員和開發(fā)者是正在改變每個行業(yè)的生成式 AI 的核心力量。Hugging Face 與 NVIDIA 正在將全球最大的 AI 社區(qū)與 NVIDIA 在全球領先云環(huán)境中的 AI 計算平臺相連接。通過雙方的合作,Hugging Face 社區(qū)用戶只需要點擊一下鼠標,就可以使用 NVIDIA AI 計算?!?/p>
作為合作的一部分,Hugging Face 將提供一項名為“訓練集群即服務(Training Cluster as a Service)”的新服務,用以簡化企業(yè)創(chuàng)建新的自定義生成式 AI 模型的過程。該服務由 NVIDIA DGX Cloud 提供支持,將在未來幾個月內推出。
Hugging Face 聯合創(chuàng)始人兼首席執(zhí)行官 Clément Delangue 表示:“世界各地的人們正在利用生成式 AI 工具建立新的聯系,進行新的探索,而我們仍處于這一技術轉型的早期階段。雙方的合作將為 Hugging Face 帶來 NVIDIA 最先進的 AI 超級計算,使企業(yè)能夠通過開源并以他們需要的速度將 AI 的命運牢牢掌握在自己手中,推動未來發(fā)展?!?/p>
在Hugging Face 中大幅增強 LLM 定制和訓練功能
Hugging Face 平臺讓開發(fā)者能夠利用開源資源構建、訓練和部署最先進的 AI 模型。目前有超過 15,000 家企業(yè)機構正在使用 Hugging Face,社區(qū)共享了超過 25 萬個模型和 5 萬個數據集。
DGX Cloud 與 Hugging Face 的集成將實現對 NVIDIA 多節(jié)點 AI 超級計算平臺的一鍵式訪問。通過 DGX Cloud,Hugging Face 用戶將能夠連接到 NVIDIA AI 超級計算,提供利用獨家數據快速訓練和調整基礎模型所需的軟件和基礎架構,推動新一輪企業(yè)大語言模型(LLM)開發(fā)浪潮。借助由 DGX Cloud 提供支持的訓練集群即服務,企業(yè)將能夠利用其在 Hugging Face 上的獨家數據,以前所未有的速度創(chuàng)建出獨一無二的高效模型。
DGX Cloud 為大規(guī)模模型加速開發(fā)和定制
每個 DGX Cloud 實例均配備 8 顆 NVIDIA H100 或 A100 80GB Tensor Core GPU,每個節(jié)點的 GPU 總內存為 640GB。NVIDIA Networking 所提供的高性能、低延遲結構確保工作負載能夠在互聯系統(tǒng)集群中進行擴展,從而滿足高級 AI 工作負載的性能要求。
DGX Cloud 還提供 NVIDIA 專家支持,可幫助客戶優(yōu)化模型并快速解決開發(fā)難題。
DGX Cloud 基礎設施由領先的 NVIDIA 云服務提供商合作伙伴托管。
供應情況
與 Hugging Face 集成的 NVIDIA DGX Cloud 預計將在未來幾個月內推出。