從“300kg機(jī)房”到“1.68kg便攜超算”,東方超算讓AI算力進(jìn)入“效率時(shí)代”
【2025年11月,中國(guó)】當(dāng)全球AI硬件巨頭仍在比拼算力峰值時(shí),東方超算(deepx.ai-power.com)用一款僅1.68kg的設(shè)備,重新定義了企業(yè)級(jí)AI算力的效率邊界。
其最新發(fā)布的 Deep X G20系列,憑借1824 TOPS推理算力、338 tokens/s推理速度與300W功耗下的高能效比,實(shí)現(xiàn)了對(duì)國(guó)際頂級(jí)AI工作站的跨越式超越——在MLPerf v3.1測(cè)試中,其性能比NVIDIA DGX Spark提升82%,功耗卻降低40%。
這不僅是一場(chǎng)技術(shù)競(jìng)賽的勝利,更是AI算力“性能—效率”范式的革命。
性能革命:1824 TOPS裝進(jìn)1.68kg機(jī)身
Deep X G20系列的旗艦型號(hào) G20 Pro Max 搭載Intel Core Ultra 9 285處理器(24核心,5.6GHz)與NVIDIA RTX PRO 5000 Blackwell架構(gòu)GPU(24GB GDDR7顯存),形成三芯協(xié)同的“神經(jīng)態(tài)異構(gòu)計(jì)算架構(gòu)(NHCA)”。
這一架構(gòu)通過(guò)CPU、GPU、NPU智能調(diào)度算法,使三者實(shí)現(xiàn)“零空轉(zhuǎn)”協(xié)同,計(jì)算資源利用率提升40%。
在實(shí)際測(cè)試中,G20 Pro Max實(shí)現(xiàn)了:大模型推理:LLaMA 11B速度達(dá)338 tokens/s,首字延遲僅78ms,比國(guó)際競(jìng)品快82%;圖像生成:Stable Diffusion XL生成速度提升67%,每分鐘輸出30張高清圖像;深度訓(xùn)練任務(wù):BERT模型訓(xùn)練加速78%,長(zhǎng)期運(yùn)行穩(wěn)定性衰減低于0.8%。
這意味著,在不到2升體積的空間中,Deep X完成了“將數(shù)據(jù)中心裝進(jìn)背包”的工程奇跡——從300kg的機(jī)房級(jí)設(shè)備,到手提可行的“移動(dòng)超算”,性能密度提升了百倍以上。
效率革命:部署時(shí)間從480分鐘縮短到8分鐘
性能強(qiáng)大固然重要,但在AI應(yīng)用落地中,“效率”才是決定ROI的關(guān)鍵。傳統(tǒng)企業(yè)部署AI模型往往需要8–23小時(shí),涉及環(huán)境配置、依賴安裝、模型下載、量化優(yōu)化等繁復(fù)流程,成功率僅40%。東方超算用“軟硬一體化”徹底改寫(xiě)了這條流程。
Deep X + AppMall.ai 的組合讓AI部署變成“工業(yè)化作業(yè)”:打開(kāi)AppMall.ai,搜索模型 → 一鍵部署 → 自動(dòng)下載、優(yōu)化、生成API接口,全程僅需8分鐘;硬件利用率從50%躍升至90%,模型運(yùn)行穩(wěn)定率達(dá)98%;預(yù)置1000+模型(覆蓋視覺(jué)、語(yǔ)音、NLP、醫(yī)療、制造等50+領(lǐng)域),全部針對(duì)Deep X硬件做過(guò)兩周級(jí)別專項(xiàng)優(yōu)化。
“這不是算力提升60倍,而是部署效率提升60倍。”東方超算研發(fā)負(fù)責(zé)人表示,“我們把AI從‘實(shí)驗(yàn)室’帶到了‘生產(chǎn)車間’?!?/p>
能效革命:300W功耗釋放1.824P算力
在能耗成為AI硬件新瓶頸的當(dāng)下,Deep X的300W功耗設(shè)計(jì)堪稱“極致平衡”。通過(guò)液態(tài)金屬導(dǎo)熱系統(tǒng) + VC均熱板 + 智能風(fēng)道,G20實(shí)現(xiàn)了工業(yè)級(jí)穩(wěn)定性。在7×24小時(shí)滿載運(yùn)行下,設(shè)備溫控穩(wěn)定在68℃以內(nèi),噪音低于40dB。
與同類機(jī)房服務(wù)器相比:Deep X功耗降低40%,算力密度提升200%,每TOPS成本僅為云GPU的1/15。
這意味著企業(yè)每年可節(jié)省60–120萬(wàn)元云GPU支出,而硬件投資僅4萬(wàn)元人民幣。對(duì)于中小企業(yè)而言,AI算力的門(mén)檻從“高不可攀”變成“即買(mǎi)即用”。
穩(wěn)定性革命:從“云依賴”到“本地智能”
在穩(wěn)定性與數(shù)據(jù)安全方面,Deep X的本地化部署模式展現(xiàn)出傳統(tǒng)云方案無(wú)法替代的優(yōu)勢(shì)。在金融、醫(yī)療等數(shù)據(jù)敏感行業(yè),用戶可在本地運(yùn)行全部AI模型,無(wú)需外網(wǎng)通信,數(shù)據(jù)泄露風(fēng)險(xiǎn)降至零。
Deep X還通過(guò)x86架構(gòu)實(shí)現(xiàn)100%生態(tài)兼容性:支持PyTorch、TensorFlow、ONNX等主流框架;Docker鏡像直接運(yùn)行,無(wú)需重新編譯;Windows與Ubuntu雙系統(tǒng)即插即用。這讓企業(yè)可以“零遷移成本”接入現(xiàn)有工作流,從云端遷移至本地AI計(jì)算只需數(shù)小時(shí)。
投資回報(bào)革命:從成本中心到利潤(rùn)引擎
性能與效率的提升最終回歸為可量化的商業(yè)收益。在東方超算公布的企業(yè)部署數(shù)據(jù)中:

企業(yè)不再為“算力消耗”買(mǎi)單,而是在“算力產(chǎn)出”中創(chuàng)造利潤(rùn)。正如某CFO所言:“我們不再把Deep X視為電腦,而是一臺(tái)能印鈔的機(jī)器。”
技術(shù)視角:算力的“摩爾定律2.0”
東方超算將這場(chǎng)性能革命總結(jié)為“摩爾定律2.0”——不是芯片制程的縮小,而是系統(tǒng)協(xié)同效率的提升。
通過(guò)在CPU、GPU、內(nèi)存、存儲(chǔ)、部署軟件之間實(shí)現(xiàn)深度協(xié)同,Deep X把同樣的硬件性能“壓榨”出兩倍價(jià)值。
這背后是一整套從底層架構(gòu)到軟件生態(tài)的優(yōu)化哲學(xué):“算力不是堆疊出來(lái)的,而是調(diào)度出來(lái)的。我們追求的不是峰值性能,而是可被所有企業(yè)用起來(lái)的性能?!薄獤|方超算首席科學(xué)家
結(jié)語(yǔ):AI算力進(jìn)入“效率時(shí)代”
從1824 TOPS到8分鐘部署,從1.68kg到90%硬件利用率,Deep X G20不僅刷新了AI硬件的性能指標(biāo),更重構(gòu)了企業(yè)使用AI的方式。
在全球AI硬件競(jìng)爭(zhēng)加劇的今天,這場(chǎng)由中國(guó)企業(yè)引領(lǐng)的“效率革命”,正在改變行業(yè)敘事:AI不再是技術(shù)的象征,而是生產(chǎn)力的基礎(chǔ)設(shè)施。
未來(lái),隨著Deep X與AppMall.ai生態(tài)的持續(xù)擴(kuò)展,東方超算正讓AI算力,從機(jī)房走向每一個(gè)辦公桌。