北京2022年11月16日 /美通社/ -- 日前,亞馬遜云科技宣布,由自研芯片Amazon Trainium支持的Amazon Elastic Compute Cloud(Amazon EC2)Trn1實例正式可用。Trn1 實例專為在云中進行高性能機器學習模型訓練而構(gòu)建,與基于 GPU 的同類實例相比,可節(jié)省高達 50% 的訓練成本。Trn1實例能夠以超快的速度在亞馬遜云科技上訓練機器學習模型,助力客戶縮短訓練時間,快速迭代模型以提升準確性,提高自然語言處理、語音和圖像識別、語義搜索、推薦引擎、欺詐檢測和預測等工作負載的運行效率。使用Trn1實例無需最低消費承諾或預付費用,客戶只需為使用的計算量付費。欲開始使用Trn1實例,請訪問:aws.amazon.com/cn/ec2/instance-types/trn1/。
越來越多客戶正在構(gòu)建、訓練和部署機器學習模型,以支撐有望重塑其業(yè)務和客戶體驗的應用程序。這些機器學習模型變得越來越復雜,需要越來越多的訓練數(shù)據(jù)提高準確性。因此,客戶必須將其模型擴展到數(shù)千個加速器上,致使訓練成本越來越高。這會直接影響研發(fā)團隊試驗和訓練不同模型的能力,限制客戶將創(chuàng)新推向市場的速度。亞馬遜云科技此前已經(jīng)為機器學習提供了廣泛且深入的硬件加速器計算產(chǎn)品選擇,包括由亞馬遜云科技自研芯片Amazon Inferentia支持的Inf1實例、G5實例、P4d實例和DL1實例。但是,即便使用當前最快的加速實例,訓練日益復雜的機器學習模型仍然非常昂貴和耗時。
由Amazon Trainium芯片支持的全新Trn1實例為在亞馬遜云科技上運行的機器學習模型訓練提供超高性價比和超快速度。與最新的、基于GPU的P4d實例相比,針對深度學習模型訓練的成本可降低多達50%。借助針對Trn1實例的軟件開發(fā)工具包(SDK)Amazon Neuron,客戶幾乎不需要更改代碼。并且,Amazon Neuron與PyTorch和TensorFlow等流行的機器學習框架集成。Trn1實例配有多達16顆專為部署深度學習模型而構(gòu)建的Amazon Trainium加速器。Trn1是首個提供高達800 Gbps的網(wǎng)絡帶寬的實例,延遲更低,比最新的基于GPU的EC2實例快2倍。它采用了亞馬遜云科技第二代Elastic Fabric Adapter(EFA)網(wǎng)絡接口來提高擴展效率。Trn1實例還使用高速的實例內(nèi)聯(lián)技術NeuronLink加速訓練??蛻艨梢栽贏mazon EC2 UltraClusters超大規(guī)模集群中部署包含數(shù)以萬計Trainium加速器的Trn1實例,快速訓練包含數(shù)萬億個參數(shù)的超復雜深度學習模型。憑借EC2 UltraClusters,客戶能夠使多達3萬個Trainium加速器與EFA PB級網(wǎng)絡實現(xiàn)互連,擴展機器學習模型訓練,按需獲取超算級性能,將訓練時間從數(shù)月縮短至數(shù)日。每個Trn1實例支持高達8TB的本地NVMe SSD存儲,可快速訪問大型數(shù)據(jù)集。Amazon Trainium支持多種數(shù)據(jù)類型(FP32、TF32、BF16、FP16 和可配置的 FP8)和隨機舍入。隨機舍入是一種概率舍入的方法,與深度學習訓練中經(jīng)常使用的傳統(tǒng)舍入模式相比,性能更強,準確度更高。Amazon Trainium還支持動態(tài)張量形狀和自定義運算符,交付靈活的基礎設施,旨在隨客戶的訓練需求而演進。
亞馬遜云科技Amazon EC2副總裁David Brown表示:"近年來,我們見證了機器學習從大型企業(yè)使用的小眾技術發(fā)展成為許多客戶的業(yè)務核心。我們預計機器學習訓練將迅速占據(jù)其大量的計算需求。在高性能機器學習芯片Amazon Inferentia成功的基礎上,我們推出專為高性能訓練而構(gòu)建的第二代機器學習芯片Amazon Trainium。由Amazon Trainium支持的Trn1實例可幫助客戶將訓練時間從數(shù)月縮短至數(shù)日,同時更具成本效益。"
Trn1實例基于Amazon Nitro系統(tǒng)構(gòu)建,該系統(tǒng)是亞馬遜云科技自研硬件和軟件創(chuàng)新的集大成者,可簡化隔離式多租戶、專用網(wǎng)絡和快速本地存儲的交付。Amazon Nitro系統(tǒng)將CPU虛擬化、存儲和網(wǎng)絡功能卸載至專用硬件和軟件,交付近乎裸機的性能。Trn1實例將通過其他亞馬遜云科技服務提供,包括Amazon SageMaker、Amazon Elastic Kubernetes Service(Amazon EKS)、Amazon Elastic Container Service(Amazon ECS)和Amazon Batch。Trn1實例可以作為按需實例購買,支持節(jié)省計劃(Saving Plans),也可以按預留實例或Spot實例購買。Trn1實例現(xiàn)已在美國東部(弗吉尼亞北部)和美國西部(俄勒岡)區(qū)域可用,其他區(qū)域也將很快推出。欲了解更多Trn1實例相關信息,請訪問:aws.amazon.com/blogs/aws/amazon-ec2-trn1-instances-for-high-performance-model-training-are-now-available。
亞馬遜的產(chǎn)品搜索引擎索引了數(shù)十億種產(chǎn)品,每天提供數(shù)以十億計的客戶查詢,是全球頻繁使用的服務之一。Amazon Search高級首席科學家Trishul Chilimbi表示:"我們正在訓練大型語言模型,這些模型是多模式、多語言、多地區(qū)、基于多任務預訓練的,跨多個維度(產(chǎn)品、查詢、品牌、評論等)改善客戶的購物體驗。與其他加速機器學習解決方案相比,Amazon EC2 Trn1實例可提供更高的性能功耗比,為訓練大型語言模型提供了一種更可持續(xù)的方式,并以超低成本提供了高性能。我們計劃探索新的、可配置的FP8數(shù)據(jù)類型和硬件加速隨機舍入,進一步提高訓練效率和開發(fā)速度。"
PyTorch是一個開源機器學習框架,可加速從研究原型設計到生產(chǎn)部署的過程。"PyTorch希望加速將機器學習從研究原型設計到實際生產(chǎn)就緒、可供客戶使用的進程。我們與亞馬遜云科技進行了廣泛的合作,為由Amazon Trainium支持的全新Trn1實例提供原生PyTorch支持。構(gòu)建PyTorch模型的開發(fā)人員只需少量代碼更改,即可在Trn1實例上開啟訓練。" PyTorch應用人工智能工程經(jīng)理Geeta Chauhan表示,"此外,我們還與OpenXLA社區(qū)合作,啟用PyTorch分布式庫,以便輕松地將模型從基于GPU的實例遷移至Trn1實例。Trn1實例為PyTorch社區(qū)帶來的創(chuàng)新包括更高效的數(shù)據(jù)類型、動態(tài)形狀、自定義運算符、硬件優(yōu)化的隨機舍入和快速調(diào)試模式,我們對此倍感興奮。所有這些功能讓Trn1實例非常適合PyTorch開發(fā)人員廣泛采用。未來,我們期待共同為PyTorch做出貢獻,進一步優(yōu)化訓練性能。"
Helixon為蛋白質(zhì)療法構(gòu)建下一代人工智能(AI)解決方案,開發(fā)AI工具,幫助科學家破譯蛋白質(zhì)功能和交互方式,查詢大規(guī)?;蚪M數(shù)據(jù)集以進行靶標鑒別,設計抗體和細胞療法等治療方法。"當前,我們使用像全分片數(shù)據(jù)并行(Fully Sharded Data Parallel)等方式訓練分布式庫,即通過許多基于GPU的服務器并行訓練模型。但即便如此,訓練單個模型仍需花費數(shù)周時間。" Helixon首席執(zhí)行官Jian Peng表示,"我們很高興能夠利用Amazon EC2 Trn1實例,它擁有亞馬遜云科技上超高的可用網(wǎng)絡帶寬,可以提高分布式訓練作業(yè)性能,縮短模型訓練時間,同時也降低成本。"
Money Forward公司為企業(yè)和個人提供開放和公平的金融平臺。Money Forward首席技術官Takuya Nakade表示:"我們基于Amazon EC2 Inf1實例推出了大規(guī)模AI聊天機器人服務,與基于GPU的同類實例相比,推理延遲降低了97%,同時還降低了成本。我們會定期微調(diào)定制的自然語言處理模型,因此減少模型訓練時間和成本很重要。根據(jù)我們在Inf1實例上成功遷移推理工作負載的經(jīng)驗,以及采用基于Amazon Trainium的EC2 Trn1實例所開展的初始工作,我們預計Trn1實例將在提高端到端機器學習性能和降低成本方面提供額外價值。"
Magic是一家集生產(chǎn)和研究于一體的公司,它開發(fā)的人工智能就像身邊的同事一樣,能夠幫助你提高生產(chǎn)效率。"訓練基于大型自回歸變換器(large autoregressive transformer)的模型是我們工作的重要組成部分。由Amazon Trainium支持的Trn1實例專為此類工作負載設計,提供近乎無限的可擴展性、快速的節(jié)點互聯(lián)以及對 16 位和 8 位數(shù)據(jù)類型的高級支持。"Magic聯(lián)合創(chuàng)始人兼首席執(zhí)行官Eric Steinberger表示,"Trn1實例將幫助我們以更低成本更快速地訓練大型模型。Trainium對BF16隨機舍入的原生支持功能特別令人興奮,不僅提高了性能,同時讓數(shù)值準確性與全精度幾乎無異。"