omniture

推動(dòng)AI民主化,英特爾在行動(dòng)

英特爾
2017-04-27 16:08 5676
英特爾和Facebook正在攜手,把英特爾? MKL函數(shù)集成與Caffe2結(jié)合。這使Caffe2在英特爾CPU上的性能大大提升。目前絕大多數(shù)推理工作負(fù)載都運(yùn)行在英特爾?至強(qiáng)?處理器上,這一合作大大方便了廣大人工智能技術(shù)開發(fā)者。

北京2017年4月27日電 /美通社/ -- 在近期的F8開發(fā)者大會(huì)上,F(xiàn)acebook 正式宣布開源其全新深度學(xué)習(xí)框架 Caffe2,由于該框架可以將機(jī)器學(xué)習(xí)移動(dòng)化,用在 iOS、Android 和樹莓派上訓(xùn)練和部署模型,一經(jīng)發(fā)布便引起業(yè)內(nèi)高度關(guān)注?;诖?,英特爾、微軟等公司紛紛展開合作,在云端和移動(dòng)環(huán)境兩個(gè)方面都對(duì) Caffe2 做了優(yōu)化。這些合作將使機(jī)器學(xué)習(xí)從業(yè)者能夠使用更復(fù)雜的模型快速地進(jìn)行實(shí)驗(yàn),并部署下一代 AI 增強(qiáng)型的應(yīng)用和服務(wù)。如此,機(jī)器學(xué)習(xí)移動(dòng)化的價(jià)值能更好地得以實(shí)現(xiàn),進(jìn)一步拓寬人工智能應(yīng)用場(chǎng)景。

英特爾和Facebook正在攜手,把英特爾® MKL函數(shù)集成與Caffe2結(jié)合。這使Caffe2在英特爾CPU上的性能大大提升。大多數(shù)深度學(xué)習(xí)工作負(fù)載同時(shí)包含訓(xùn)練和推理,其中推理所需的計(jì)算資源總量遠(yuǎn)高于訓(xùn)練。目前絕大多數(shù)推理工作負(fù)載都運(yùn)行在英特爾®至強(qiáng)®處理器上,這一合作大大方便了廣大人工智能技術(shù)開發(fā)者。

事實(shí)證明,英特爾® MKL函數(shù)集成與Caffe2的結(jié)合效果喜人。根據(jù)Caffe2上采用了AlexNet拓?fù)湟约坝⑻貭?reg; MKL和Eigen BLAS的性能結(jié)果顯示,Caffe2在CPU上進(jìn)行了高度優(yōu)化,并提供明顯更有競(jìng)爭(zhēng)力的性能。對(duì)于小型批處理推理工作負(fù)載,專家建議在每個(gè)CPU核心上運(yùn)行一個(gè)工作負(fù)載,并且并行運(yùn)行多個(gè)工作負(fù)載,每個(gè)核心一個(gè)工作負(fù)載。

其實(shí),為了針對(duì)各種訓(xùn)練和推理應(yīng)用進(jìn)行優(yōu)化,去年,英特爾在幾個(gè)深度學(xué)習(xí)框架上都迅速增加了CPU的支持。這些優(yōu)化中核心的一項(xiàng)便是英特爾®數(shù)學(xué)核心函數(shù)庫(kù)(英特爾® MKL),它使用英特爾®高級(jí)矢量擴(kuò)展CPU指令集(例如英特爾® AVX-512),更好地支持深度學(xué)習(xí)應(yīng)用。該函數(shù)庫(kù)的算法能夠平均分配數(shù)據(jù)和任務(wù),充分利用多個(gè)核心和處理器。

通過(guò)這次與Facebook攜手增進(jìn)Caffe2在英特爾架構(gòu)上性能的舉措不難看出,英特爾一直是積極賦能人工智能開發(fā)的領(lǐng)軍角色。長(zhǎng)期以來(lái),英特爾致力于開源協(xié)作,確保客戶和合作伙伴在英特爾硬件上擁有出色、簡(jiǎn)便、完整的 AI 體驗(yàn)。英特爾使數(shù)據(jù)、培訓(xùn)、工具和智能技術(shù)更容易獲取,目的是助力人工智能技術(shù)的大眾化,擴(kuò)大人工智能的影響力,這些實(shí)際上這是英特爾作為AI應(yīng)用普及推動(dòng)者,正在積極打造AI時(shí)代的新生態(tài)的一部分。

在深度學(xué)習(xí)框架層面,英特爾正在基于X86架構(gòu)優(yōu)化各種深度學(xué)習(xí)框架,讓企業(yè)迅速能夠部署人工智能,比如 Caffe,TensorFlow,Theano 和 Torch 等。在Google對(duì)較受歡迎的深度學(xué)習(xí)框架之一TensorFlow 進(jìn)行開源后,英特爾發(fā)布了 TensorFlow 的性能優(yōu)化開發(fā)者工具包,促進(jìn)使用 CPU 進(jìn)行深度學(xué)習(xí),強(qiáng)化其在英特爾處理器上的執(zhí)行效能。雙發(fā)協(xié)作讓TensorFlow可以用于所有英特爾CPU核心以改善平行運(yùn)算、整合高效能函式庫(kù)如MKL到TensorFlow,并且優(yōu)化不同網(wǎng)路拓?fù)涞挠洃涹w配置與資料層的運(yùn)作。

此外,英特爾在 2016年12月開源了基于 Apache Spark 的分布式深度學(xué)習(xí)框架 BigDL,大大降低普通大數(shù)據(jù)用戶和數(shù)據(jù)科學(xué)家在使用深度學(xué)習(xí)進(jìn)行數(shù)據(jù)分析和構(gòu)建人工智能應(yīng)用的門檻。據(jù)悉,BigDL 一大優(yōu)點(diǎn)是它原生地建立在Spark 上,天然地繼承了Spark 的可擴(kuò)展性,并且與現(xiàn)有大數(shù)據(jù)處理工作流(例如Spark ML pipeline,SparkSQL, Spark Streaming, Dataframes, Structured Streaming 等)無(wú)縫集成。用戶可以通過(guò) BigDL將深度學(xué)習(xí)應(yīng)用編寫為標(biāo)準(zhǔn)的 Spark程序,這些程序可以直接在 Spark或Hadoop集群上運(yùn)行。將BigDL進(jìn)行開源大大方便了有大量數(shù)據(jù)需要管理,以及擁有大數(shù)據(jù)平臺(tái)(Hadoop/Spark)的分析客戶。在短短一個(gè)月內(nèi),GitHub上已獲得 229 個(gè)用戶克隆 BigDL代碼(FORK)和1421個(gè)用戶收藏(STAR)。

其實(shí),無(wú)論是與科研、互聯(lián)網(wǎng)、電商、生命科學(xué)等不同領(lǐng)域生態(tài)合作伙伴一起,以英特爾架構(gòu)(IA)技術(shù)、產(chǎn)品和創(chuàng)新,充分滿足生物、計(jì)算機(jī)視覺等多元化的應(yīng)用創(chuàng)新,還是與Facebook攜手優(yōu)化Caffe 2在英特爾處理器上的運(yùn)用,開源BigDL等深度學(xué)習(xí)框架等,抑或是傳播AI知識(shí),建立英特爾®Nervana?人工智能研究院——英特爾構(gòu)建AI生態(tài)的初衷,都是要讓人工智能應(yīng)用的門檻降低,大幅拓寬人工智能技術(shù)的應(yīng)用面,讓AI早日揭開神秘面紗,順利落地于實(shí)際應(yīng)用領(lǐng)域。

如今,在私有、公共或混合云中采用人工智能的機(jī)會(huì)不斷增多,這就需要使數(shù)據(jù)、人才、將信息轉(zhuǎn)化為洞察的工具更容易廣泛獲取。人工智能技術(shù)大眾化的道路上,需要迅速改變數(shù)據(jù)存儲(chǔ)孤島、專家數(shù)量少、工具復(fù)雜等關(guān)鍵問(wèn)題。英特爾相信,更開放的行業(yè)環(huán)境將助推人工智能發(fā)展的各環(huán)節(jié)形成一個(gè)良性循環(huán),它能打破發(fā)展瓶頸,最終釋放AI原力。

推動(dòng)AI民主化,英特爾在行動(dòng)。

消息來(lái)源:英特爾
China-PRNewsire-300-300.png
全球TMT
微信公眾號(hào)“全球TMT”發(fā)布全球互聯(lián)網(wǎng)、科技、媒體、通訊企業(yè)的經(jīng)營(yíng)動(dòng)態(tài)、財(cái)報(bào)信息、企業(yè)并購(gòu)消息。掃描二維碼,立即訂閱!
collection