omniture

浪潮信息助力淮海智算中心,千億參數(shù)AI大模型訓(xùn)練算力效率超50%

2023-02-20 15:08 4001

北京2023年2月20日 /美通社/ -- 近日,淮海智算中心攜手浪潮信息進(jìn)行了超大規(guī)模參數(shù)AI大模型訓(xùn)練性能測(cè)試,實(shí)測(cè)數(shù)據(jù)表明,千億參數(shù)規(guī)模的自然語言AI單體大模型在淮海智算中心計(jì)算平臺(tái)上的訓(xùn)練算力效率達(dá)53.5%,刷新了業(yè)內(nèi)AI大模型訓(xùn)練算力效率新高。這意味著淮海智算中心將可為國(guó)內(nèi)生成式AI創(chuàng)新團(tuán)隊(duì)提供高性能、高效率的AI大模型訓(xùn)練算力服務(wù)。

生成式AI需要基于海量的自然語言或多模態(tài)數(shù)據(jù)集,對(duì)擁有巨大參數(shù)的超大規(guī)模AI模型進(jìn)行訓(xùn)練,其訓(xùn)練所需AI算力當(dāng)量非常高,如以PD(Petaflops-Day)為單位來衡量,OpenAI的GPT-3大模型訓(xùn)練的算力當(dāng)量為3640PD,而浪潮"源1.0"大模型的算力當(dāng)量則為4095PD。

超大規(guī)模AI大模型的訓(xùn)練一般必須在擁有成百上千加速卡的AI服務(wù)器集群上進(jìn)行,如何在AI計(jì)算集群上獲得更高的訓(xùn)練算力效率則會(huì)直接影響到模型訓(xùn)練時(shí)長(zhǎng)以及算力消耗成本,這對(duì)于提升生成式AI研發(fā)創(chuàng)新效率有著非常重要的影響。據(jù)公開資料表明,GPT-3大模型在其V100 GPU集群上的訓(xùn)練算力效率為21.3%,而浪潮"源1.0"的訓(xùn)練算力效率則達(dá)到了44.8%。

針對(duì)AI大模型訓(xùn)練的計(jì)算特點(diǎn),浪潮信息AI團(tuán)隊(duì)對(duì)淮海智算中心算力系統(tǒng)進(jìn)行了專業(yè)設(shè)計(jì),對(duì)集群架構(gòu)、高速互聯(lián)、算力調(diào)度等方面進(jìn)行全面優(yōu)化,在系統(tǒng)架構(gòu)上,采用單節(jié)點(diǎn)集成8顆加速器的AI服務(wù)器,節(jié)點(diǎn)內(nèi)加速器間實(shí)現(xiàn)超高速P2P通信,節(jié)點(diǎn)間建立極低延遲、超高帶寬的Infiniband通信網(wǎng)絡(luò)。在大模型訓(xùn)練技術(shù)層面,成功運(yùn)用了中文巨量AI模型"源1.0"的訓(xùn)練優(yōu)化經(jīng)驗(yàn),對(duì)分布式訓(xùn)練策略進(jìn)行了針對(duì)性優(yōu)化,通過合理設(shè)計(jì)張量并行、流水并行和數(shù)據(jù)并行,精準(zhǔn)調(diào)整模型結(jié)構(gòu)和訓(xùn)練過程的超參數(shù),最終實(shí)現(xiàn)了千億參數(shù)規(guī)模AI大模型的訓(xùn)練算力效率達(dá)到53.5%。

千億參數(shù)AI模型結(jié)構(gòu)及其實(shí)際性能表現(xiàn)
千億參數(shù)AI模型結(jié)構(gòu)及其實(shí)際性能表現(xiàn)

千億參數(shù)AI模型結(jié)構(gòu)及其實(shí)際性能表現(xiàn)

淮海智算中心由安徽省宿州市與浪潮共同推進(jìn)建設(shè),目標(biāo)是建成技術(shù)先進(jìn)、架構(gòu)開放、應(yīng)用豐富、生態(tài)完善的國(guó)內(nèi)領(lǐng)先智算樞紐?;春V撬阒行膶⒁揽款I(lǐng)先的算力、算法基礎(chǔ)設(shè)施,開放的技術(shù)架構(gòu),成熟豐富的生態(tài)應(yīng)用,面向全國(guó)提供智能算力、數(shù)據(jù)和算法服務(wù),打造良好的智算產(chǎn)業(yè)生態(tài)。

消息來源:浪潮信息
China-PRNewsire-300-300.png
全球TMT
微信公眾號(hào)“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營(yíng)動(dòng)態(tài)、財(cái)報(bào)信息、企業(yè)并購(gòu)消息。掃描二維碼,立即訂閱!
collection