AI服務器價格上漲的原因主要有兩方面:一是市場需求增加,AI 大模型對算力的需求遠超過現有供應;二是核心零部件GPU持續緊缺,全球主要廠家英偉達、AMD在GPU方面的產能有限,且受美國禁令影響。AI 服務器價格上漲給相關企業帶來了成本壓力和出貨量下降的困境,也給云服務商和終端用戶帶來了使用成本的增加。如何解決AI 服務器的算力之困,成為業界關注的問題。
AI大模型火熱推動算力需求大增。

近年來,人工智能技術取得了突飛猛進的發展,尤其是在自然語言處理(NLP)、計算機視覺(CV)、語音識別(ASR)等領域,出現了一批具有劃時代意義的AI大模型。
國外:OpenAI的GPT-4、谷歌的PaLM2、微軟的Turing-NLG、Meta的LLaMA、DeepMind的Gopher等國內:百度的文心一言、阿里巴巴的通義千問、騰訊的混元、華為的盤古、科大訊飛的星火、復旦大學的MOSS等這些AI 大模型都具有超強的學習能力和泛化能力,可以在多個任務和領域上取得優異的表現,甚至超越人類水平。它們為人工智能應用提供了強大的支撐和推動力,也引發了全球各大科技企業和研究機構的競相追逐和擁抱。據不完全統計,自3月16日百度率先公布“文心一言”以來,國內已有超過30項大模型產品亮相。然而,AI 大模型的實現,需要海量數據和強大算力來支撐訓練和推理過程。華為方面預估到2030年,AI爆發帶來的算力需求將增長500倍。而目前市場上可用于訓練AI大模型的算力資源遠遠能滿足需求,例如:OpenAI的GPT-3.5模型擁有1750億個參數,需要使用數千塊GPU進行數月的訓練。最近馬斯克也向英偉達購買了上萬塊GPU,用來訓練其名為TruthGPT的大模型。