華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案

全球AI的頂級盛會GTC于3月17日到3月21日在美國硅谷盛大舉行。在GTC大會期間,華瑞指數(shù)云ExponTech CTO曹羽中受邀參加了專注于AI Storage的技術(shù)研討會并發(fā)表演講。在演講中,曹羽中介紹了ExponTech與合作伙伴ScaleFlux, AIC基于英偉達的BlueField3 DPU以及英偉達最新發(fā)布的Spectrum-X網(wǎng)絡(luò)打造的新型AI Storage方案,展示了該方案的實際測試數(shù)據(jù),并與合作伙伴,AI Storage行業(yè)專家以及一些大型客戶進行了深入討論。與會的專家均表示該方案的實測性能數(shù)據(jù)以及綜合優(yōu)勢表現(xiàn)遠超預(yù)期,具備很高的商業(yè)價值,very impressive!

華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案
華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案

新型AI存儲方案采用的軟硬件方案:

硬件:

F2026 AI服務(wù)器,是一臺2U閃存JBOF,配備2個或4個NVIDIA BlueField-3數(shù)據(jù)處理單元(DPU)和24塊高性能ScaleFlux CSD5000 NVMe SSD(CSD5000是ScaleFlux公司最新推出的一款內(nèi)置硬件壓縮與解壓縮能力的高性能NVMe SSD介質(zhì));

NVIDIA Spectrum-X網(wǎng)絡(luò)交換機;

軟件:

華瑞指數(shù)云ExponTech下一代分布式存儲軟件平臺WADP (WiDE AI Data Platform);

華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案

(本方案采用的2U存儲節(jié)點及ScaleFlux CSD5000 NVMe SSD)

基于此方案的AI訓(xùn)練和推理環(huán)境的實測部署架構(gòu)如下圖:

華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案

1臺2U AIC JBOF作為存儲服務(wù)器, 配備4塊NVIDIA BlueField3 DPU, 提供1600Gbps網(wǎng)絡(luò)帶寬,24塊ScaleFlux CSD5000 NVMe SSD,ExponTech WADP存儲軟件的后端運行于BlueField3 DPU內(nèi);

1臺標(biāo)準(zhǔn)2U服務(wù)器作為計算服務(wù)器,配備4塊NVIDIA BlueField3 DPU,提供800Gbps網(wǎng)絡(luò)帶寬,在DPU內(nèi)部運行ExponTech WADP存儲軟件的存儲網(wǎng)關(guān)和協(xié)議;

計算服務(wù)器上可以配置GPU,用于訓(xùn)練或推理,存儲軟件和網(wǎng)絡(luò)流量運行于DPU內(nèi),存儲IO不會消耗計算服務(wù)器的CPU和內(nèi)存資源,計算服務(wù)器可以擁有更充沛的資源用于計算處理;

測試環(huán)境特別選擇了4臺NVIDIA Spectrum-X交換機組成兩層網(wǎng)絡(luò),主要是為了模擬與驗證在大規(guī)模組網(wǎng)的情況下,RoCE網(wǎng)絡(luò)是否依然可以很好的處理擁塞,存儲軟件可以依然保持穩(wěn)定的存儲性能和低時延;

存儲服務(wù)器(JBOF)和計算服務(wù)器均可以按需獨立擴展,按需加入更多的存儲服務(wù)器(JBOF)或者計算服務(wù)器,構(gòu)成大規(guī)模的,存算分離的,按需擴展的AI訓(xùn)練和推理集群。

基礎(chǔ)存儲性能驗證:

基于上一節(jié)所述的實測部署環(huán)境,進行了存儲系統(tǒng)的基礎(chǔ)性能驗證,其驗證方法是從計算節(jié)點上運行FIO,測試存儲系統(tǒng)的基礎(chǔ)性能指標(biāo)。

華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案

單個計算節(jié)點可以達到近90GB/s的存儲帶寬,接近計算節(jié)點網(wǎng)卡的物理帶寬上限;

單個計算節(jié)點可以達到310萬IOPS,當(dāng)配置更多的計算節(jié)點時,可以同步獲得更多的IOPS??紤]到整個存儲系統(tǒng)的后端以及協(xié)議端都是跑在DPU內(nèi),DPU內(nèi)的CPU處理性能遠遠不如服務(wù)器配置的CPU,單個計算節(jié)點+單個存儲節(jié)點即達到310萬IOPS已經(jīng)充分展現(xiàn)了本方案相當(dāng)驚人的IO處理效率;

存儲系統(tǒng)的IOPS與存儲節(jié)點上部署的數(shù)據(jù)處理單元(DPU)數(shù)量呈線性比例擴展,系統(tǒng)的IOPS隨DPU部署數(shù)量線性擴展,表明其具備極佳的橫向擴展能力。本方案采用的存儲節(jié)點最多可以配置8張DPU(當(dāng)前測試環(huán)境配置4張),還可以實現(xiàn)IOPS性能翻倍以及網(wǎng)絡(luò)帶寬翻倍;

存儲系統(tǒng)在使用小IO size時,并發(fā)大壓力時延低至266us, 在使用大IO size時,打滿計算節(jié)點的網(wǎng)絡(luò)物理帶寬,時延還能始終保持在1毫秒以下。

MLPerf Storage v1.0測試結(jié)果:

MLPerf? 是影響力最廣的國際AI性能基準(zhǔn)評測,MLPerf? Storage是針對AI Storage的基準(zhǔn)性能測試,可以較為全面的評估測試AI應(yīng)用程序的存儲需求。MLPerf? Storage基準(zhǔn)測試通過運行一個分布式訓(xùn)練測試程序,模擬GPU計算過程,在此過程中真實的執(zhí)行AI服務(wù)器對存儲系統(tǒng)的讀寫訪問,以此來測試存儲系統(tǒng)能夠支撐的最大GPU數(shù)量和帶寬表現(xiàn)。

MLPerf Storage v1.0于2024年8月推出,國內(nèi)外一共有十三家從事高性能存儲研發(fā)的廠家參與了測試并提交正式測試結(jié)果,其中包括DDN(Lustre),華為,WekaIO,Hammerspace等知名的分布式文件系統(tǒng)廠家。

本次我們選擇了ResNet50模型(主要用于圖像分類和圖像識別場景),在上述1存儲節(jié)點(JBOF)+1計算節(jié)點的測試環(huán)境上進行了MLPerf Storage v1.0基準(zhǔn)測試,測試的結(jié)果如下:

華瑞指數(shù)云ExponTech聯(lián)合合作伙伴在硅谷發(fā)布新型AI存儲方案

測試結(jié)果表明:

ExponTech的新型AI存儲方案具備全球領(lǐng)先的性能,單客戶端能夠支持的GPU卡的數(shù)量超過了所有參與了MLPerf Storage v1.0正式測試的廠商,位居全球第一;單客戶端能夠?qū)崿F(xiàn)的存儲帶寬達到近30GB/s, 位居全球第二;本次測試環(huán)境只有一個客戶端節(jié)點(計算節(jié)點),CPU和內(nèi)存配置較低,在運行MLPerf Storage v1.0的測試中已經(jīng)達到了客戶端節(jié)點的計算能力的瓶頸,但是還遠遠沒有達到存儲節(jié)點的存儲能力的瓶頸。如果換用處理能力更強的計算節(jié)點來做測試,可以測試出更高的性能數(shù)據(jù),即支持更多的GPU卡,實現(xiàn)更高的存儲帶寬。

總結(jié)

基于本次在真實的環(huán)境上的全面測試,總結(jié)一下ExponTech與合作伙伴ScaleFlux, AIC基于英偉達的BlueField3 DPU以及英偉達最新發(fā)布的Spectrum-X網(wǎng)絡(luò)打造的新型AI Storage方案的關(guān)鍵特點和優(yōu)勢:

  1. 世界頂級性能,SPC-1 評測超越所有高端全閃存儲陣列,打破世界紀錄,MLPerf Storage v1.0測試數(shù)據(jù)大幅度超越WekaIO, DDN等著名并行文件系統(tǒng);
  2. 世界頂級容量密度,當(dāng)前每2U Storage Node可實現(xiàn)超過1.6PB存儲裸容量,明年可擴展至每2U超過6.6PB,最大化數(shù)據(jù)中心空間的AI數(shù)據(jù)價值;
  3. 配置的ScaleFlux CSD5000 NVMe SSD具有盤內(nèi)透明壓縮解壓縮能力,能夠在不消耗額外系統(tǒng)資源,不影響性能的情況下實現(xiàn)存儲容量的數(shù)倍放大,存儲容量效率獲得驚人的提升;
  4. 同一平臺上同時支持高性能分布式塊存儲和文件存儲等多種協(xié)議,除了支持AI的訓(xùn)練和推理場景,還可以覆蓋數(shù)據(jù)匯集,數(shù)據(jù)準(zhǔn)備,RAG等AI Pipeline全場景,無須為AI Pipeline配置不同的存儲方案以及反復(fù)進行數(shù)據(jù)拷貝移動,可以實現(xiàn)AI算力和存力完全存算分離和獨立擴展,具備更好的可管理性和效率;
  5. 強大的并行擴展性,存儲節(jié)點及計算節(jié)點均可以獨立的水平擴展,同時實現(xiàn)存儲性能和容量的等比例擴展;
  6. 可靠性高,可維護性高,存儲節(jié)點采用相比標(biāo)準(zhǔn)服務(wù)器更為精簡的JBOF,硬件故障率更低,同時JBOF內(nèi)部采用冗余的硬件設(shè)計來保障可靠性,提升可維護性;
  7. 支持基于RoCE的超大規(guī)模組網(wǎng),采用RoCE動態(tài)路由和細粒度的負載均衡實現(xiàn)更好的擁塞控制,基于標(biāo)準(zhǔn)以太網(wǎng)在大規(guī)模RDMA組網(wǎng)中實現(xiàn)高效帶寬, 低抖動和超低時延;
  8. 優(yōu)化的總體擁有成本(TCO),高密度的存儲節(jié)點+透明盤內(nèi)壓縮+新型軟件定義存儲軟件的組合簡化了硬件成本,大幅度提升了存儲空間利用效率和讀寫性能,簡化了管理,AI客戶將因此大幅度優(yōu)化其AI Storage的總體擁有成本(TCO);
  9. 基于此方案的KV Cache大規(guī)模持久化方案也即將推出,實現(xiàn)AI推理集群內(nèi)的K,V向量的全局共享,能夠以低成本高性能的大規(guī)模存儲能力替代AI推理過程中K,V向量的大量重復(fù)運算,實現(xiàn)AI推理算力成本的大幅降低。

本文轉(zhuǎn)載自:,不代表科技訊之立場。原文鏈接:http://news.cnmtpt.com/?did=51035

陳晨陳晨管理團隊

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論