無論是ChatGPT-4還是文心一言,本質(zhì)都是算法大模型帶起來的AI軍備競賽,而除了這些大公司,大模型的出現(xiàn)還有望帶動AI服務(wù)器需求爆發(fā)。CPU、內(nèi)部存儲和外部存儲作為服務(wù)器的核心部件,受益于大模型的井噴發(fā)展,板塊也會得到進一步關(guān)注。本文就重點介紹AI大模型服務(wù)器。
所謂“大模型”,通常是在無標(biāo)注的大數(shù)據(jù)集上,采用自監(jiān)督學(xué)習(xí)的方法進行訓(xùn)練。之后在其他場景的應(yīng)用中,開發(fā)者只需要對模型進行微調(diào),或采用少量數(shù)據(jù)進行二次訓(xùn)練,就可以滿足新應(yīng)用場景的需要。
一、大模型的基礎(chǔ):算力場景向AI升級,CPU+GPU是核心
服務(wù)器隨著場景需求經(jīng)歷通用服務(wù)器-云服務(wù)器-邊緣服務(wù)器-AI服務(wù)器四種模式,AI服務(wù)器采用GPU增強其并行計算能力;
AI大模型服務(wù)器按應(yīng)用場景可分為訓(xùn)練和推理,訓(xùn)練對芯片算力的要求更高,根據(jù)IDC,隨著大模型的應(yīng)用,2025年推理算力需求占比有望提升至60.8%;
AI大模型服務(wù)器按芯片類型可分為CPU+GPU、CPU+FPGA、CPU+ASIC等組合形式,CPU+GPU是目前國內(nèi)的主要選擇(占比91.9%);
AI大模型服務(wù)器的成本主要來自CPU、GPU等芯片,占比25%-70%不等,對于訓(xùn)練型服務(wù)器其80%以上的成本來源于CPU和GPU。
大模型是人工智能發(fā)展的必然趨勢,大模型是輔助式人工智能向通用性人工智能轉(zhuǎn)變的堅實底座,能夠極大提升生產(chǎn)力。通過學(xué)習(xí)一種特征和規(guī)則,搭建出高效率的通用模型,在這個基礎(chǔ)上進行微調(diào),就可以應(yīng)用在不同場景。
在過去,大家都是各自研發(fā)自家模型,單一AI應(yīng)用場景需要多個模型支撐,每個模型都需要算法開發(fā)、數(shù)據(jù)處理、模型訓(xùn)練等過程,耗費了大量資源。在AI時代,這樣的低效發(fā)展顯然不是谷歌、微軟、百度等公司希望的。
現(xiàn)在,大模型實現(xiàn)了標(biāo)準(zhǔn)化AI研發(fā)范式,能夠以一種簡單的方式進行規(guī)?;a(chǎn),既能降低自家的AI開發(fā)門檻,做到“低成本”和“高效率”,還能夠?qū)⑦@一模型應(yīng)用在有定制化需求的企業(yè)身上。
所以,基于這個基礎(chǔ),大模型的開發(fā)成為互聯(lián)網(wǎng)發(fā)展的必然結(jié)果。而這個結(jié)果的底層技術(shù)支撐,就是算力。算力是打造大模型生態(tài)的必備基礎(chǔ),其中,服務(wù)器作為算力的載體,無疑是大模型發(fā)展的重要支撐。而這些都會在文心一言、在ChatGPT中發(fā)揮舉足輕重的作用,幫助這些大模型實現(xiàn)從輸入到輸出。
二、ChatGPT等大模型訓(xùn)練和推理需求激增驅(qū)動AI服務(wù)器市場高速增長
據(jù)預(yù)測,ChatGPT-4參數(shù)量最高達15000億個,由于參數(shù)量與算力需求間存在正比關(guān)系,所以可推算GPT-4算力需求最高達到31271PFlop/s-day。隨著國內(nèi)外廠商加速布局千億級參數(shù)量的大模型,訓(xùn)練需求有望進一步增長,疊加大模型落地應(yīng)用帶動推理需求高速增長,共同驅(qū)動算力革命并助推AI服務(wù)器市場及出貨量高速增長。
服務(wù)器比普通計算機運行更快、負載更高、價格更貴,但內(nèi)部結(jié)構(gòu)與普通的計算機相差不大。服務(wù)器的架構(gòu),當(dāng)然也會隨負載量擴張而不斷優(yōu)化?,F(xiàn)在的服務(wù)器架構(gòu),已經(jīng)從傳統(tǒng)單一模式過渡到集群模式,再發(fā)展到有著廣闊應(yīng)用前景的分布式架構(gòu)。
在分布式架構(gòu)中,整個系統(tǒng)按照不同功能,拆分為多個單一功能的子模塊,每個模塊被放到不同服務(wù)器中相互協(xié)作,共同組成服務(wù)器網(wǎng)絡(luò),服務(wù)器也是區(qū)塊鏈應(yīng)用的底層技術(shù)支撐。
伴隨應(yīng)用需求不斷擴張,不同架構(gòu)服務(wù)器百花齊放。人工智能應(yīng)用場景下的加速計算服務(wù)器,因為擁有強大的計算能力,因而成為服務(wù)器中的核心驅(qū)動力。從最近的文心一言到ChatGPT-4,AI場景下的加速計算服務(wù)器成為各家拼算力、拼模型的基礎(chǔ),AI服務(wù)器的價值正逐漸凸顯。
AI服務(wù)器不同于通用服務(wù)器,作為算力載體,其更專精于海量數(shù)據(jù)處理和運算方面,可以為人工智能、深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、大模型等場景提供廣闊的動力源泉,并廣泛應(yīng)用于醫(yī)學(xué)、材料、金融、科技等千行百業(yè)。在未來,AI服務(wù)器必將為數(shù)字經(jīng)濟時代提供發(fā)展的強大動力。
如果將當(dāng)前的 ChatGPT 部署到谷歌進行的每次搜索中,需要 512820.51 臺 A100 HGX 服務(wù)器和總共 4102568 個 A100 GPU,這些服務(wù)器和網(wǎng)絡(luò)的總成本僅資本支出就超過 1000 億美元。在生成式AI大模型廣闊的應(yīng)用背景下,高算力服務(wù)器需求有望在中長線保持旺盛,支撐其底層的交換機、服務(wù)器等數(shù)據(jù)中心算力基礎(chǔ)設(shè)施亦將迎來新一輪高速增長。