從“紙面算力”到“好用算力”,超聚變打通AI+“最后一公里”
如果要評選2024年的年度科技名詞,AI+當屬最熱門的候選項。
年初的《政府工作報告》中首次提出了“人工智能+”行動,正在從頂層設計著手,加快形成以人工智能為引擎的新質生產力。
折射到市場層面,AI+作為一種新的范式,不斷深入千行萬業。金融、醫療、制造、交通、智慧城市等各行各業都在掀起一場智能革命,通過AI和算力的結合挖掘新質生產力,不斷釋放出創新的乘法效應。
同時也遇到了一些待解的難題,比如作為基礎設施的AI算力:當AI成為場景革新的驅動力量,算力環節如何破局?
剛剛結束的2024年中國算力大會“AI+,釋放算力新價值”論壇上,來自超聚變、中國電信、滴普科技、百度、英特爾等算力產業上下游的廠商,以及人工智能領域的院士和專家,深入探討了AI算力的現狀和趨勢。
也讓我們看到了問題的答案。
01 打破算力瓶頸,行業需要“好用算力”
“AI+各行各業”不是簡單的兩者相加,而是要利用數據、算力、算法等智能要素,催生出新的業態和增長動能。
借用一個形象的比喻:AI+就好比是做飯,算法是鍋、數據是米、算力是火。特別是在“算法跟著算力走”的背景下,算力已經可以在某種程度上和生產力劃等號,算力強則AI強,算力不足,AI就會掉鏈子。
現實情況卻是,AI算力的瓶頸在2024年依舊存在。
一是算力缺口的加劇。
參考美銀等機構的報告:大模型進入到萬億參數時代后,對算力的需求達到了每年750倍的指數級膨脹,而目前的硬件算力供給只有3倍每兩年的增速,供需缺口正在隨著時間加劇。
也就意味著,讓無數企業頭大的“算力焦慮”,在時間的作用下將只增不減,同時也在拷問當前的算力供給方式:僅僅只是在數量上做文章,永遠填不滿各行各業的算力缺口,必須要思考怎么提升智能算力的效能。
二是算力亟需綠色化。
馬斯克和黃仁勛都曾抱怨“算力的盡頭是電力”,之后就傳出了“微軟算力中心搞崩了電網”的新聞。按照國際能源署的預測,2026年數據中心、人工智能等行業的電力消耗將達到1000太瓦時以上,增速是全球用電量的數十倍。
在這樣的語境下,綠色智算所涉及的不單單是環保議題,能否在綠色智算的布局上未雨綢繆,給出可行的創新解決方案降低功耗,直接關系著下一個十年的算力供給能力,左右著AI+在各行各業的融合進程。
三是算力應用的困境。
沒有汽車工業的繁榮,石油不過是廉價的燃料。同樣的邏輯也適用于AI,倘若不能在應用層降低門檻、疏通堵點,使能各行各業的開發者高效打造AI原生應用,所謂的算力價值也就無從談起。
目前AI應用還處于試點階段,想要走向規?;涞兀媾R著算力、模型、應用等不同層級的痛點。比如算力的單一和兼容性問題,尤其是在模型推理的多元算力需求下;大模型調用的高門檻,模型和算力資源的匹配就勸退了不少開發者;以及應用開發時面臨缺少工具鏈、開發效率低等挑戰。
AI算力的瓶頸是否無解呢?答案是否定的。
2024年中國算力大會“AI+,釋放算力新價值”論壇上,超聚變全球Marketing與銷售服務部總裁、算力事業部總裁張小華道出了行業上下游的一個共識:推動算力從“紙面算力”到“可用算力”再到“好用算力”的轉換。
簡而言之,AI算力既要增量,也要提質。
正如超聚變算力領域與拓展部總裁唐啟明在演講中提到的:“面向AI算力,超聚變正在重構基礎設施、跨越生態裂谷,逐步推向行業落地,通過縱向做深構筑競爭力,橫向擴展以IT賦能OT,和伙伴一起共促AI算力產業繁榮?!?/p>
超聚變指出了方向,也給出了可行的路徑。
02 告別能耗魔咒,構建“綠色”智能算力
首先要解決的就是綠色智算。
為了解決算力資源分布不均衡的情況,國家在2022年初啟動了“東數西算”工程,將東部的算力需求有序引導到西部,發揮西部的自然氣候和電力優勢,通過算力資源的跨域調配,解決算力中心的能耗壓力。
可隨著大模型推理需求的爆發,對時延的要求越來越高,不少城市開始建立城市級、區域級的智算中心,以滿足不斷增長的推理算力需求。但在智算中心的建設上,并沒有盲目上馬,紛紛畫出了能耗紅線。
比如工信部等六部門在《工業能效提升行動計劃》中提出:到2025年,新建大型、超大型數據中心電能利用效率(PUE)要優于1.3;北京、上海、深圳、杭州、廣州等城市先后對新建數據中心提出了嚴格要求,其中深圳已明確鼓勵PUE值低于1.25的數據中心。
正如外界所熟知的,PUE值越接近1,表明非IT設備的耗能越少,數據中心的能效水平越高。目前國內大型數據中心的平均PUE值為1.55,超大型數據中心平均PUE值也只有1.46,意味著能耗只有一半用在了“計算”上,其他的則浪費在了散熱、照明等方面。
對于智算中心分布密集的一二線城市,能否在自然氣候不占優勢的前提下,降低智算中心的PUE值呢?
2024年中國算力大會上,超聚變的FusionPoD for AI 新一代全液冷整機柜GPU服務器斬獲了“算力中國·年度重大突破成果”。在主辦方公布的獲獎理由里,除了在算力密度、海量數據訪問上的出色表現,散熱和供電能力的權重同樣不可小覷:100%全液冷散熱搭配105kW高效集中供電,讓PUE低至1.06,5年TCO(總成本)降低15%以上,可以說是當下綠色智算的首選方案。
可以佐證的是,目前超聚變液冷服務器的出貨量已經達到70000+節點,其中和浙江電信聯合創新的端到端完整的數據中心液冷解決方案,采用了FusionPoD for AI整機柜液冷服務器規模部署,在有“中國四大火爐”之稱的杭州,實現了極致能效和超低PUE。
一個不應被忽略的消息在于,超聚變在2024年中國算力大會上發起成立了“液冷AI開放聯盟”,將致力于構建標準化的智算底座,讓產業用戶可以更快、更易、更好地獲取和使用AI算力。
言外之意,基于液冷AI開放架構的“綠色算力”,在接下來一段時間里,每年都會成倍提升。
開源證券等第三方機構也在報告中預測了綠色智算的趨勢:AIGC正驅動智算中心朝高密度、低PUE發展,2022年到2027年中國液冷數據中心市場將保持59%的復合增長率,2027年市場規模將突破千億大關。
把以上信息做個歸納的話,智算中心告別能耗“魔咒”,已經是一種現在進行時,一種行業主旋律。
03 軟硬件協同,打通AI+“最后一公里”
綠色智算加速了“可用算力”進程,距離“好用算力”還有多遠呢?
作為算力基礎設施與服務領域的“塔尖”選手,超聚變已經給出了自己的回答:
南向創新提升智算效能。
不只是前面提到的FusionPoD for AI全液冷整機柜GPU服務器,還包括開箱即用的超聚變超融合訓推一體機等產品,同時推出了AI Space大模型加速引擎,借助模型遷移、適配和調優能力來提升智算效能。
北向使能AI融入現有業務。
直接的例子就是2024年中國算力大會上發布的超聚變FusionOne Al解決方案,圍繞AI落地在算力、模型、應用等環節的痛點,提供了三大核心能力,進而縮短從算力到應用的距離,加速AI融入業務。
在算力層,超聚變打造了兼容多元AI算力、異構算力的XPU資源池,瞄準了行業普遍存在的痛點:在實際業務中常常需要CPU、GPU、FPGA、NPU等多種算力,被迫部署不同架構的服務器。
超聚變通過XPU資源池的方式,可以廣泛兼容intel、AMD、NVIDIA、昇騰、摩爾線程等多種異構算力,并在智能調度的幫助下實現了50%有效算力提升,助力客戶在推理算力上“一次投資,持續演進”。
在模型層,超聚變的模型工程涵蓋了開源和第三方商用模型、場景化數據集,以及測試、聯調、發布、部署、管理在內的模型使能工具和算子加速,進一步降低了大模型微調開發和推理上線的技術門檻。
以大模型與算力資源的匹配為例,在傳統流程中,工程師需要根據模型的需求調整算力資源,在模型的計算需求與可用的硬件資源之間找到一個平衡點,對經驗和能力的要求非常高,超聚變的解法是“模型與算力資源自動按需匹配”。
在應用層,超聚變提供了數據工程、知識庫、插件在內的全周期AI工具鏈,并配備了專業的AI服務團隊,前者旨在降低AI原生應用開發的門檻,后者對應的是100多位經驗豐富的AI工程師。
個中邏輯并不難解釋。相較于算力和模型,應用直接和客戶的生產力掛鉤,在AI+方興未艾的氛圍下,只有打通AI+的“最后一公里”,讓算力的價值照進現實,讓各行各業看到AI+的“倍增效應”,整個產業才會有序向上生長。
目前FusionOne Al解決方案已經服務超聚變的主流業務場景,覆蓋了4000+員工、10000+合作伙伴,生成了百萬行代碼,實現80%以上的效率提升……超聚變軟硬件協同釋放算力新價值的解法,已經得到了驗證。
每次提到AI+的時候,總有人想要尋找殺手級應用或者iPhone時刻,或許最正確的方式恰恰是像超聚變這樣,解決AI+的一個個痛點和堵點,讓智能算力潤物細無聲地“滋潤”各行各業的每一個場景。
04 寫在最后
誠如2024年中國算力大會所呈現的, 一個AI驅動的美麗新世界在算力時代變得越來越清晰。
通往“新世界”的道路上,有挑戰,有機遇,還有一群默默“鋪路”的技術人。有理由相信,超聚變和伙伴們的聯合創新,將重塑算力新格局、釋放算力新價值,點亮千行萬業的數智化之路。
在AI+的浪潮下,城市將變得更加智慧、安全,企業將更加高效、充滿活力,生活將更加便捷、充滿想象。
轉載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規范轉載侵權必究。
未經授權嚴禁轉載,授權事宜請聯系作者本人,侵權必究。
本文禁止轉載,侵權必究。
授權事宜請至數英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)