禁令頻出,國產(chǎn)AI何去何從?
12月2日,美國宣布了新一輪對華出口限制措施,將140余家中國企業(yè)加入貿(mào)易限制清單,涉及半導體制造設備、電子設計自動化工具等多個種類。
12月3日,中國互聯(lián)網(wǎng)協(xié)會、中國半導體行業(yè)協(xié)會、中國汽車行業(yè)協(xié)會、中國通信企業(yè)協(xié)會等陸續(xù)發(fā)布聲明,呼吁國內(nèi)企業(yè)審慎選擇采購美國芯片。
翻看多家被列入“限制清單”企業(yè)的回復,均表示不會對公司業(yè)務產(chǎn)生實質(zhì)性影響,這些企業(yè)的股價也沒有出現(xiàn)大幅波動。
但在知乎等平臺上,討論的焦點沒有局限在半導體產(chǎn)業(yè),而是將話題指向了AI。根據(jù)CNNIC發(fā)布的《生成式人工智能應用發(fā)展報告》,2024年上半年國內(nèi)生成式人工智能產(chǎn)品的用戶規(guī)模已經(jīng)超過2.3億人次,等于是每六個中國人中,就有一人正在使用生成式AI產(chǎn)品。
一旦AI領域所需的芯片供應被“切斷”,是否預示著國產(chǎn)AI的進度速度將放緩,進而影響到千行萬業(yè)的數(shù)智化進程,影響每一個用戶的智能體驗?
01 算力的另一種“解法”
之所以會出現(xiàn)上述猜想,原因在于大模型對算力的依賴。
大模型通常有數(shù)十億到數(shù)萬億的參數(shù),需要處理海量的訓練數(shù)據(jù),對算力提出了極高的要求。比如訓練過程中需要進行大規(guī)模的矩陣運算,對GPU、TPU等加速硬件依賴很大,算力不足的話,可能導致訓練時間指數(shù)級增長。
以至于大模型概念剛走紅時,出現(xiàn)了哄搶GPU的一幕,價格被炒高數(shù)倍,甚至手里有多少枚GPU,都成了創(chuàng)業(yè)公司融資的籌碼。但在臺積電斷供、新一輪對華出口限制的現(xiàn)實背景下,依靠國外芯片補充算力的模式已經(jīng)“岌岌可危”。
特別是在四家協(xié)會集體呼吁“保障芯片穩(wěn)定供應”的背景下,生成式AI的算力難題是否存在新的解法?
時間回到2023年9月,華為云正式上線了昇騰AI云服務。
有別于行業(yè)內(nèi)普遍采用英偉達架構和軟硬件方案的部署方式,昇騰AI云服務給出了全棧自主的新方案:整合了大規(guī)模算力集群、計算引擎CANN、AI框架MindSpore、ModelArts AI開發(fā)生產(chǎn)線、ModelArts Studio大模型即服務平臺等等,為千行百業(yè)提供了更多元、高效、長穩(wěn)的算力服務選擇。
聚焦到算力資源的分布上,華為云在貴州貴安、內(nèi)蒙古烏蘭察布、安徽蕪湖、香港部署了四大AI算力中心,同時在華北、華東、華南等熱點區(qū)域部署了30多個數(shù)據(jù)中心節(jié)點,并通過華為云云邊緣樞紐,為客戶提供最低時延的AI訓推服務。簡單來說,華為云提供的是云、網(wǎng)、邊、端協(xié)同的AI Native的算力平臺,既可以使用萬卡進行大模型訓練,也可以滿足極低時延的推理需求。
其中的內(nèi)在邏輯,可以追溯到華為副董事長、輪值董事長徐直軍在華為全聯(lián)接大會2024主題演講中的觀點:
1、美國在AI芯片領域?qū)χ袊闹撇瞄L期不會取消,而中國半導體制造工藝由于也受美國制裁,將在相當長時間處于落后狀態(tài),這就意味著我們所能制造的芯片的先進性將受到制約,也是打造算力解決方案必需面對的挑戰(zhàn)。
2、人工智能正在成為主導性算力需求,促使計算系統(tǒng)正在發(fā)生結構性變化,需要的是系統(tǒng)算力,而不僅僅是單處理器的算力。這些結構性變化,為我們通過架構性創(chuàng)新,開創(chuàng)出一條自主可持續(xù)的計算產(chǎn)業(yè)發(fā)展道路提供了機遇。
3、我們的戰(zhàn)略核心就是,充分抓住人工智能變革機遇,基于實際可獲得的芯片制造工藝,計算、存儲和網(wǎng)絡技術協(xié)同創(chuàng)新,開創(chuàng)計算架構,打造“超節(jié)點+集群”系統(tǒng)算力解決方案,長期持續(xù)滿足算力需求。
由此可以得到的結論是:中國AI的路并未被“堵死”,因為華為云早就開辟了一條獨立自主的路。
02 “云化算力”的必然性
其實在十幾年前,云計算的理念就已經(jīng)成為行業(yè)共識,通過彈性的算力供給,企業(yè)不再需要花巨額資金采購服務器,不再需要進行復雜的運維,創(chuàng)新的門檻被不斷降低,最終加速了移動互聯(lián)網(wǎng)的繁榮。
當智能算力成為創(chuàng)新的最大制約因素,昇騰AI云服務的“云化”是最優(yōu)解嗎?想要回答這個問題,需要從三個維度進行拆解。
第一個是穩(wěn)定和可靠。
和AI的每一次對話,都涉及到復雜的計算,沒有穩(wěn)定可靠的算力供給,再美好的設想都將是泡沫。就像前面所提到的,昇騰AI云服務的特點是全棧自主創(chuàng)新,從硬件、基礎設施、算力集群、架構到軟件應用,都掌握在華為云自己手中。
可靠和穩(wěn)定的另一種體現(xiàn),在于華為云對昇騰AI云服務進行的持續(xù)優(yōu)化,比如業(yè)界萬億參數(shù)模型訓練的平均無中斷時長約2.8天,昇騰AI云服務可實現(xiàn)40天無中斷;業(yè)界平均集群故障恢復時間約60分鐘,昇騰AI云服務可以縮短到10分鐘;針對大模型訓練的數(shù)據(jù)安全,華為云采用了數(shù)據(jù)傳輸與存儲加密、數(shù)據(jù)安全清除、數(shù)據(jù)訪問控制、數(shù)據(jù)水印防泄露等多重技術,確保大模型訓練數(shù)據(jù)的全生命周期安全......
第二個是算力的多元化。
大模型訓練和推理僅僅是算力需求的一個側(cè)面,在實際的運行中往往需要CPU、NPU、DPU等多種算力。以往想要滿足不同類型的算力,需要構建多個數(shù)據(jù)中心,然后進行復雜的調(diào)度和分配。
這里就涉及到華為云的AI原生云基礎設施CloudMatrix,可以將CPU、NPU、DPU、存儲和內(nèi)存等資源全部互聯(lián)和池化,從單體算力向矩陣算力演進,構建了一切可池化、一切皆對等、一切可組合的AI原生云基礎設施,繼而實現(xiàn)了云上資源的多元算力統(tǒng)一建模、靈活調(diào)度組合和按需提供給。據(jù)悉,基于CloudMatrix全新架構的昇騰AI云服務還將于明年正式上線,屆時將進一步提升AI算力集群性能,提速企業(yè)大模型訓練。
第三個是成本和效率。
大模型的開發(fā)、訓練及部署是個復雜的系統(tǒng)工程,任何一個環(huán)節(jié)的短板,都可能影響到創(chuàng)新的進度。即使不考慮自建數(shù)據(jù)中心的長周期、高能耗,單單是大模型的落地部署,就需要端到端的全流程支持。
以大模型遷移為例,涉及到算力適配、框架兼容、軟件環(huán)境、數(shù)據(jù)傳輸?shù)榷鄠€流程,可能需要幾個月的時間。而昇騰AI云服務提供了大模型開發(fā)、通用AI開發(fā)及算力調(diào)優(yōu)在內(nèi)的全流程工具鏈,可以快速、無損實現(xiàn)模型和應用的遷移適配,典型場景遷移至生產(chǎn)環(huán)境只需要不到2周的時間。
做一個總結的話:相較于自建數(shù)據(jù)中心,昇騰AI云服務在很大程度上保障了算力供給的穩(wěn)定和安全,再加上云計算即開即用、按需使用、靈活部署的優(yōu)勢,注定會成為大模型訓練、推理部署的必要基礎設施。
也就是說,即使不考慮限制芯片進口的現(xiàn)實因素,云化算力仍是不可逆的技術趨勢。全棧自主的昇騰AI云服務,剛好是當下最可靠的選擇。
03 生產(chǎn)力已經(jīng)被驗證
衡量AI云服務的價值標桿,關鍵是能否將算力變成生產(chǎn)力。
正如我們此前在文章中所提到的觀點:AI對云計算的“顛覆”才露出冰山一角,過去的云服務是以功能為中心的,譬如CRM、客服系統(tǒng)、OA等等;未來將是以場景為中心,基于大模型的能力,打破功能上的邊界,深入場景解決問題。
面對國內(nèi)半導體產(chǎn)業(yè)的現(xiàn)狀,昇騰AI云服務既給出了可持續(xù)的AI算力解決方案,也在解決行業(yè)難題,釋放出實實在在的生產(chǎn)力。
比如基于昇騰算力打造自主創(chuàng)新通用大模型底座的科大訊飛。
在同行們搶時間發(fā)布大模型的2023年初,科大訊飛在同步思考一個長遠問題:為了避免被卡脖子,怎么將大模型的能力架構在一個自主創(chuàng)新的體系上?
半年后的訊飛開發(fā)者節(jié)上,答案被揭曉——科大訊飛聯(lián)合華為推出了國內(nèi)首個萬卡規(guī)模大模型算力平臺“飛星一號”,然后訓練出了全面對標GPT-4 Turbo的星火V4.0。
身為“局內(nèi)人”的科大訊飛董事長劉慶峰,后來在一次主題分享中感慨道:“在我們自己建算力集群之后,我們發(fā)現(xiàn)在華為云上做訓練推理建設比自己做更輕松、效率更高,更能滿足短時瞬間的規(guī)模化算力應用之后,釋放波峰波谷(減少能耗閑置,算力削峰填谷),對整個行業(yè)都是效率最高的。”
再比如順豐科技在昇騰AI云服務的支持下打造的“豐語”大模型。
3個月前的深圳國際人工智能展上,順豐科技發(fā)布了物流行業(yè)的垂直大模型豐語,對物流行業(yè)各個崗位進行高效賦能。
其中基于大模型的摘要準確率已超過95%,讓客服人員與客戶對話后的處理平均時長減少了30%;對快遞小哥問題的定位準確率超過98%,平均每次會話可以節(jié)省小哥3分鐘。
按照順豐科技AIoT領域副總裁宋翔在公開演講中提到的信息,昇騰AI云服務為豐語大語言模型構筑堅實底座,提供澎湃算力支持,并通過高效的數(shù)據(jù)、開發(fā)、訓練及推理平臺,實現(xiàn)了AI應用的高效開發(fā)與資源利用。
可以找到的案例還有很多。
諸如奇瑞、比亞迪、小紅書、網(wǎng)易伏羲、騰訊音樂、知乎、美圖等都曾公開分享過在昇騰AI云服務上訓練大模型的經(jīng)歷,目前已經(jīng)有100+開源大模型基于昇騰AI云服務適配并優(yōu)化。
這些真實的落地案例,不僅驗證了昇騰AI云服務在大模型訓練、推理、部署等方面的優(yōu)勢,還在無形中回答了文初留下的問題:把中國企業(yè)列入“限制清單”的行為,不會卡主中國企業(yè)的脖子,反而提升了中國AI生態(tài)的凝聚力。
還是科大訊飛的例子。
在基于昇騰軟硬件訓練大模型的過程中,雙方聯(lián)合開發(fā)和優(yōu)化了50多個大模型算子,讓大模型的訓練性能提升了3倍以上;為了避免開發(fā)者重復造輪子,訊飛星火在昇思社區(qū)等平臺上開源了多個大模型,并向開發(fā)者提供基礎模型、精調(diào)模型、微調(diào)工具、人格定制工具、高質(zhì)量多語種語料等等,讓他們把精力聚焦在想要解決的問題上,而非不必要的事務中。
04 寫在最后
風物長宜放眼量。
在人工智能的賽道里,從來都沒有無法攻克的“壁壘”和“瓶頸”。所謂的“芯片禁令”,不過是進一步放大了云化算力的優(yōu)勢,作為一種高效、靈活、可擴展的解決方案,將是中國企業(yè)打破算力瓶頸的更優(yōu)選擇。
有理由相信,只要沿著已經(jīng)被驗證的路徑走下去,圍繞大模型的研發(fā)和應用不斷合作創(chuàng)新,以系統(tǒng)性能力戰(zhàn)勝單體性能,中國AI產(chǎn)業(yè)還將釋放出百倍、千倍的勢能。
轉(zhuǎn)載請在文章開頭和結尾顯眼處標注:作者、出處和鏈接。不按規(guī)范轉(zhuǎn)載侵權必究。
未經(jīng)授權嚴禁轉(zhuǎn)載,授權事宜請聯(lián)系作者本人,侵權必究。
本文禁止轉(zhuǎn)載,侵權必究。
授權事宜請至數(shù)英微信公眾號(ID: digitaling) 后臺授權,侵權必究。
評論
評論
推薦評論
暫無評論哦,快來評論一下吧!
全部評論(0條)