訂閱
糾錯
加入自媒體

AI時代,服務器廠商能否打破薄利的命運?

2024-09-19 13:54
光錐智能
關注

文|劉俊宏

編|王一粟

AI大模型正在引發(fā)新一輪的“算力焦渴”。

近日,OpenAI剛發(fā)布的o1大模型再次刷新了大模型能力的上限。對比上一次迭代的版本,o1的推理能力全方位“吊打”了GPT-4o。更優(yōu)秀的能力,來自與o1將思維鏈引入進了推理過程。在o1對問題“一邊拆解一邊回答”的過程中,“環(huán)環(huán)相扣”的思維鏈讓答案也變得更加“靠譜”。

思考模式的升級,也意味著更大的算力需求。由于模型原理是在LLM訓練額外添加了RL(強化學習)的Post-Training(后訓練),這意味著一次推理和訓練所需的算力將再次增加。

“AI研究中遇到的最大困難就是缺少算力——AI本質就是暴力計算。”華為副董事長、輪值董事長徐直軍此前總結道。

于是,近幾年科技大廠對AI基礎設不斷加大投入,除了英偉達股價不斷升高,賣“AI鏟子”的AI服務器廠商們也在本季度迎來了翻倍的業(yè)績增長。

并且,隨著AI算力下一步的需求增長和基礎設施下放,服務器廠商們有望憑借AI賺得越來越多。

廠商們業(yè)績的“高歌猛進”,是服務器與AI深度結合的結果。

其中在AI訓練環(huán)節(jié),服務器大廠們紛紛采用不同方式加速整個AI訓練過程,讓異構計算的AI服務器,成為一臺高效的AI訓練任務“分發(fā)機”。另一邊,在解決算力硬件緊缺的問題中,AI服務器廠商也結合大型服務器集群的運營經驗,落地了各種讓英偉達、AMD、華為昇騰、Intel等廠商GPU混訓大模型的平臺。

伴隨著對AI從訓練到硬件優(yōu)化的深入理解,越來越了解AI的服務器廠商也在從原本賣硬件組裝的身份,提升著在AI產業(yè)鏈的價值。

其中,聚焦到智算中心建設層面,不少服務器廠商已經根據AI需求調整了AI服務器集群的硬件基礎設施。并且,隨著對國產算力芯片的深度結合,基于AI服務器廠商自己定制的解決方案正在廣泛落地。

另一邊在軟件層面,更懂AI的服務器廠商也在開始挖掘AI在基礎設施中的生產力屬性。伴隨著服務器廠商推出的AI大模型、Agent,服務器廠商與AI應用客戶業(yè)務的結合也愈發(fā)緊密,從而進一步獲得更多軟件層面的解決方案收入。

毫無疑問,AI時代的變革也改變了整個算力載體的行業(yè)邏輯。

AI服務器廠商們正在以各種方式為用戶帶來更密集、更高效的算力供應。在當下的“算力焦渴”時代,AI服務器廠商正在成為愈發(fā)重要的“賣水人”。

AI行業(yè),“賣鏟子”的先賺錢了

AI大廠們的加速投入,讓“賣鏟子”的AI服務器廠商開始賺錢了。

根據IT桔子數據顯示,截止到9月1日,AI相關上市公司整體還是虧損居多。其中,15家盈利的AI上市公司累計凈利潤為27.8億元,虧損的19家累計凈額為62.4億元。

AI尚不能讓行業(yè)實現整體盈利,一個原因是AI巨頭們仍處于加速投入階段。

據統(tǒng)計,今年上半年,國內三家AI巨頭(BAT)在AI基礎設施上的資本支出總額高達500億元人民幣,比去年同期的230億元人民幣,增長了一倍多。全球范圍,隨著亞馬遜在上季度增長了18%的固定資本開支,再次進入了資本擴張周期。微軟、亞馬遜、谷歌、Meta等美股“Mag7”們,也達成了繼續(xù)加碼AI的共識。

“對AI投資不足的風險,遠超投資過度風險。”谷歌母公司Alphabet首席執(zhí)行官Sundar Pichai顯然非常激進,并不認為目前是投資泡沫。

而借著加大投入的風口,提供AI基礎設施的AI服務器玩家們“大賺特賺”。

其中,全球老牌服務器廠商惠普和戴爾在AI時代迎來了“第二春”。根據惠普最新披露的業(yè)績(2024三季度)顯示,其服務器業(yè)務同比增長35.1%。戴爾上季度財報顯示(對應2024年5月—2024年7月),其服務器和網絡業(yè)務營收同比增長80%。

同樣在國內廠商中,聯想在最新一季財報中提到,受AI需求增長,其基礎設施方案業(yè)務集團季度收入首次突破30億美元,同比增長65%。浪潮的中報數據顯示,公司實現歸屬于上市公司股東的凈利潤為5.97億元,較去年同期增長90.56%。神州數碼這邊,其歸屬于上市公司股東的凈利潤為5.1億元,同比增長17.5%,旗下神州鯤泰AI服務器實現收入5.6億元,同比增長273.3%。

業(yè)績超過50%以上的增長,是AI服務器大規(guī)模落地的結果。

除了云廠商,運營商是AI服務器的主要需求方。自2023年開始,運營商們加大了對AI算力的布局。其中,電信和移動對AI服務器的需求增長了一倍以上。

同時,基于智算中心的需求也在快速推動AI服務器落地。根據Intel旗下AI芯片公司Habana中國區(qū)負責人于明揚在2024全球AI芯片峰會上的分享,近三年來大約有50多個政府主導的智算中心陸續(xù)建成,目前還有60多個智算中心項目正在規(guī)劃和建設。

旺盛的AI服務器需求,改寫了整個服務器行業(yè)的增長結構。

根據TrendForce集邦咨詢近期發(fā)布的一份報告顯示,在今年大型CSPs(云端服務供應商)對AI服務器的采購下,以產值估算,預計2024年AI服務器產值將達1870億美元,成長率達69%。作為對比,一般服務器的預計年出貨量增長僅為1.9%。

未來,隨著CSP逐步完成智算中心的建設,AI服務器還將會隨著更廣泛的邊緣計算需求,進一步加速增長。AI服務器的銷售環(huán)節(jié),也將隨著CSP大批量集中采購切換至企業(yè)邊緣計算的小批量購買。

換句話說,AI服務器廠商的議價權和盈利能力,將隨著采購模式的變化進一步提升。

服務器廠商接下來還會靠AI賺的越來越多。如此趨勢,跟AI服務器客戶漫長的回本周期拉開了巨大差距。

以算力租賃的商業(yè)模式作為參考,行業(yè)內早就合計出了一筆賬。算上智算中心配套的設備(存儲、網絡),在不考慮算力價格每年下降的前提下,采用英偉達H100作為算力卡的投資回報周期長達5年,采用性價比最高的英偉達4090顯卡,回報周期也在兩年以上。

如此一來,如何幫客戶用好AI服務器,成了整個服務器行業(yè)最核心的競爭方向。

加速、穩(wěn)定,AI服務器廠商各顯神通

“大模型落地過程復雜,涉及分布式并行計算、算力調度、存儲分配、大規(guī)模組網等多種先進技術和流程支持。”對于AI服務器落地應用中需要解決的問題,新華三集團智慧計算產品線高級產品經理馮良磊曾總結道。

上述難題,對應著AI服務器落地的兩大類問題——算力優(yōu)化和大規(guī)模使用。

一位銷售人員對光錐智能也介紹到,“常見的客戶需求,其一是硬件指標,第二是AI訓練的支持能力,最后還有大規(guī)模集群的能力。”

其中,算力優(yōu)化部分主要對應著AI服務器的異構計算問題。目前,行業(yè)提供的解決方案主要分為優(yōu)化算力分配和異構芯片協作的兩個大方向。

由于AI服務器的運作模式不再是CPU獨立處理任務,而是CPU與算力硬件(GPU、NPU、TPU等)的協作。當前行業(yè)的主流解決模型,是用CPU把計算任務拆解到專用算力硬件。

這種算力分配模式,與英偉達CUDA的基本原理相同。CPU同時“帶動”的算力硬件越多,整體算力就越大。

異構計算算力分配原理

對應到服務器硬件層面的改變,是AI服務器成了可以堆疊算力硬件的“積木”。AI服務器的體積開始“加大加粗”,從通用服務器的1U(服務器高度基本單位)升級至目前常見的4U、7U。

針對算力進一步優(yōu)化,不少服務器廠商提出了自己的方案。例如新華三的傲飛算力平臺支持對算力和顯存按1%和MB的細粒度切分,并按需調度。聯想的萬全異構智算平臺則是以知識庫的形式,自動識別AI場景、算法和算力集群?蛻糁恍栎斎雸鼍昂蛿祿纯勺詣蛹虞d最優(yōu)算法,并調度最佳集群配置。

在另一邊的異構芯片協作上,主要解決的是不同算力硬件服務器之間的協同問題。

由于英偉達GPU長時間將處于供不應求的狀態(tài),不少智算中心會選擇將搭載了英偉達、AMD、華為昇騰、Intel等廠商GPU混用,或多種GPU混訓一個AI大模型。如此一來,整個AI訓練環(huán)節(jié)就會出現通信效率、互聯互通、協同調度等一系列問題。

AI服務器搭載不同廠商AI芯片占比 來源:TrendForce

“服務器集群訓練AI的過程,可以簡單理解成‘一輪一輪’的進行。一個任務先被拆解到所有算力硬件,結果匯總后再更新至下一輪計算。如果過程配合不好,比如有的GPU算的慢,或者通信不暢,相當于其他算力硬件要‘一起等’。輪數多了,整個AI訓練時長就被極大拖延。”對于異構算力硬件協作解決的實際問題,一位技術人員對光錐智能舉了一個形象的例子來解釋。

目前,解決該問題的主流方案是利用云管系統(tǒng)(包括調度、PaaS和MaaS平臺)對整個AI訓練(和神經網絡)進行精細拆分。

例如,新華三的方案是建設一套異構資源管理平臺,通過開發(fā)統(tǒng)一的集合通信庫實現對不同廠商GPU的納管,從而屏蔽不同廠商之間的差異。百度百舸異構計算平臺的多芯混合訓練方案,是將各類芯片融合成一個大集群,再支持整個訓練任務。

大同小異的解決方案,其目標正如無問芯穹聯合創(chuàng)始人兼CEO夏立雪總結,“打開水龍頭前,我們不需要知道水是從哪條河里來的。”

異構計算問題解決后,意味著智算集群可選擇的硬件種類得以徹底解放。服務器、算力芯片、AI Infra等廠商之間的配合,也有了協同效應,共同維護著AI服務器組建大規(guī)模算力集群的穩(wěn)定性。

參考Meta公司使用算力集群的經驗,AI大模型訓練并非“一帆風順”。據統(tǒng)計,Meta 16K H100集群的同步訓練中,曾在54天內出現了466次作業(yè)異常。如何讓服務器集群在出現問題后快速回到運行狀態(tài),主流的解決方案是在訓練過程中加一道“防火墻”。

例如,聯想的解決方案是“用魔法打敗魔法”。通過使用AI模型預測AI訓練故障的方式,聯想的解決方案能在斷點前優(yōu)化備份。超聚變和華為昇騰則采用了簡單直接的對策。當檢測到節(jié)點故障時,自動隔離故障節(jié)點后,從最近的Checkpoint點恢復訓練。

整體來看,AI服務器廠商在了解AI,實現算力優(yōu)化和穩(wěn)定性升級的過程中,提升自己的附加值。

借助AI對行業(yè)的改造,AI服務器的玩家們正在以垂直一體化的姿態(tài),讓服務器這個經典ToB行業(yè)煥發(fā)出新的價值。

AI讓服務器廠商更有價值?

復盤歷史,服務器廠商們一直被“困在”微笑曲線的中間地帶。

第三次工業(yè)革命之后,隨著服務器市場空間越來越大,一批又一批的服務器廠商誕生。

在PC時代,Wintel聯盟的X86架構,催生了戴爾和惠普兩家國際服務器巨頭。在云計算時代,大量的數字化需求催生了浪潮、工業(yè)富聯等一系列OEM廠商。

然而,就在服務器廠商在每年幾百、幾千億營收的華袍下,凈利潤率卻常年為個位數。在浪潮開創(chuàng)的JDM(聯合設計制造)模式下,極致的生產制造帶來的是凈利率僅為1-2個點。

“微笑曲線形成的原因,并不是因為制造環(huán)節(jié)本身的問題。是不能掌握產業(yè)鏈核心技術和專利,只能標準化生產,無法具備不可替代性的結果。”對于服務器廠商的困境,一位國泰君安電子分析師對光錐智能如此解釋道。

在AI時代,服務器廠商的價值正在隨著AI重新定義算力應用而改變。對AI的垂直整合能力,成了當下服務器廠商角逐的中心。

聚焦到硬件層面,不少服務器廠商已經深入到了智算中心的建設環(huán)節(jié)。

例如針對PUE(電源使用效率),新華三、浪潮、超聚變、聯想等廠商紛紛推出了液冷整機柜的解決方案。其中,新華三除了推出了硅光交換機(CPO)來降低整個機房的能耗外,還對整個網絡產品線都進行了AI優(yōu)化。另一邊,在突破英偉達算力芯片限制層面,神州數碼、聯想等廠商在積極推進國產算力芯片的落地,共同實現中國芯片產業(yè)彎道超車。

在軟件層面,服務器廠商還在積極挖掘AI的生產力屬性,讓業(yè)務不局限于賣硬件。

最常見的,是服務器廠商推出的AI賦能平臺。其中,神州數碼在神州問學平臺上就整合了模型算力管理、企業(yè)私域知識和AI應用工程模塊。神州數碼通過原生AI平臺的方式,將Agent能力融入到服務器的使用環(huán)節(jié),讓用戶的使用過程“越用越好用”。

神州數碼副總裁李剛對此評價稱,“我們需要有這樣一個平臺,用于內嵌企業(yè)被環(huán)境驗證過的Agent知識框架,同時還可以不斷地去積淀新的Agent框架,這個就是神州問學AI應用工程平臺的價值所在。”

新華三則是充分結合網絡產品已有的優(yōu)勢,利用AIGC實現了通信領域的異常檢測、趨勢預測、故障診斷和智能調優(yōu)。除了運維環(huán)節(jié),新華三還發(fā)布了百業(yè)靈犀AI大模型,試圖用通用大模型“帶動”行業(yè)大模型的方式,進入到不同行業(yè)客戶的業(yè)務環(huán)節(jié),進而擴張原本ToB硬件的業(yè)務范圍。

“通過不斷的科技創(chuàng)新和持續(xù)的產品打磨,尋求AI潮流中的新突破,釋放AI基礎設施的新動能。”

正如聯想集團副總裁、中國基礎設施業(yè)務群總經理陳振寬總結,服務器廠商正是在不斷加深AI垂直一體化的進程中,收獲了如今利潤率大漲的成果。

跳出制造的服務器廠商們,正在迎來屬于自己的AI大時代。

       原文標題 : AI時代,服務器廠商能否打破薄利的命運?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號