圖片來源:視覺中國
在鈦媒體在線課“鈦坦白”第43期,我們請(qǐng)來了三位鈦客,帶大家思考“人機(jī)大戰(zhàn)”后人工智能何去何從。本期鈦客之一、浪潮人工智能首席架構(gòu)師張清,是《MIC高性能計(jì)算編程指南》作者,開源深度學(xué)習(xí)計(jì)算框架Caffe-MPI設(shè)計(jì)者之一。并先后主導(dǎo)完成語音、圖像、安全等深度學(xué)習(xí)GPU項(xiàng)目,并傳統(tǒng)HPC、視頻大數(shù)據(jù)等方向多個(gè)CPU多核、GPU、MIC、FPGA計(jì)算項(xiàng)目。
本文節(jié)選自張清在鈦坦白的分享。如果您還不是鈦媒體Pro用戶,希望查看鈦坦白所有干貨,進(jìn)入鈦坦白九個(gè)專業(yè)群交流,并查看更豐富的專業(yè)數(shù)據(jù)和信息,可點(diǎn)擊:http://m.chcmb.cn/pro 注冊(cè)。
大家好,我是來自浪潮的張清,非常感謝鈦媒體的邀請(qǐng),也同樣感謝之前來自曙光和科大訊飛的兩位專家的精彩分享,我今天給大家分享的主題是面向人工智能的計(jì)算解決方案。
在分享之前我首先簡(jiǎn)單的介紹一下浪潮在人工智能方面的工作。浪潮是先進(jìn)的人工智能計(jì)算系統(tǒng)與解決方案提供商,擁有從人工智能計(jì)算產(chǎn)品研發(fā)、計(jì)算系統(tǒng)建設(shè)、軟件設(shè)計(jì)、系統(tǒng)運(yùn)維服務(wù)能力,擁有完備的人工智能端到端解決方案、計(jì)算系統(tǒng)軟硬件產(chǎn)品和應(yīng)用服務(wù)體系,在廣泛應(yīng)用人工智能技術(shù)的互聯(lián)網(wǎng)領(lǐng)域,浪潮計(jì)算設(shè)備產(chǎn)品在中國大型互聯(lián)網(wǎng)市場(chǎng)占用率超過80%,成為中國人工智能第一品牌計(jì)算設(shè)備提供商。
人類已經(jīng)經(jīng)過了三次科技革命——蒸汽時(shí)代、電氣時(shí)代和信息時(shí)代,每次科技革命的發(fā)生都為社會(huì)帶來巨大的變革和進(jìn)步。AI時(shí)代已經(jīng)到來,它可能成為第四次科技革命。下面我們來看一下AI市場(chǎng)、行業(yè)應(yīng)用、技術(shù)的發(fā)展趨勢(shì)。
A市場(chǎng)正在蓬勃發(fā)展,我們從近五年人工智能的投資金額發(fā)現(xiàn)從2012年到2016年,年均增長(zhǎng)率達(dá)到50%以上,截止到2016年,它的投資金額達(dá)到42.5億美元,AI近五年M&A和IPO的數(shù)量年均增長(zhǎng)率為49.85%,2016年已達(dá)到68項(xiàng),2020年AI整個(gè)的市場(chǎng)規(guī)模將達(dá)到480億美元。(數(shù)據(jù)來源:CB Insights)
2011年,谷歌和微軟研究院的語音識(shí)別方向研究專家先后采用深度神經(jīng)網(wǎng)絡(luò)技術(shù)將語音識(shí)別的錯(cuò)誤率降低20%~30%,這是長(zhǎng)期以來語音識(shí)別研究領(lǐng)域取得的重大突破。2012年,深度神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別應(yīng)用方面也獲得重大進(jìn)展,在ImageNet評(píng)測(cè)問題中將原來的錯(cuò)誤率降低了9%,隨著AI在語音和圖像識(shí)別的巨大成功,互聯(lián)網(wǎng)行業(yè)越來越多的用戶開始應(yīng)用AI。從2015年開始,傳統(tǒng)行業(yè)越來越多的用戶也開始應(yīng)用AI,比如金融企業(yè)、醫(yī)療企業(yè)、汽車廠商和安防企業(yè)等。今年,我們也看到很多傳統(tǒng)科學(xué)計(jì)算用戶開始研究AI技術(shù),如氣象和石油勘探用戶,利用 AI技術(shù)來提高相關(guān)應(yīng)用的預(yù)測(cè)精度。
總的來說,AI行業(yè)應(yīng)用用戶已經(jīng)從目前最為火熱的互聯(lián)網(wǎng)行業(yè)用戶,逐步發(fā)展到傳統(tǒng)企業(yè)用戶和科學(xué)計(jì)算HPC用戶。
我們先看兩個(gè)例子,第一個(gè)是圖像識(shí)別方面的Imagenet比賽,2012年Imagenet比賽冠軍網(wǎng)絡(luò)模型是Alexnet,它只有8層,訓(xùn)練所需要的計(jì)算量是相對(duì)比較小的,每一張圖片只要1.4GFlop,所訓(xùn)練出來的模型的精度達(dá)到84%,也就是錯(cuò)誤率為16%。到了2015年,經(jīng)過三年的發(fā)展,Imagenet比賽的冠軍網(wǎng)絡(luò)模型是微軟設(shè)計(jì)的Resnet,其變得更加復(fù)雜,模型的層數(shù)達(dá)到152層,層數(shù)是Alexnet的19倍,每一張圖片所需要計(jì)算量大大提高,達(dá)到22GFlop,但錯(cuò)誤率下降為3.5%。
另一個(gè)例子更加驚人,是關(guān)于語音識(shí)別。百度設(shè)計(jì)的語音識(shí)別模型,2014年有2500萬的參數(shù),訓(xùn)練的數(shù)據(jù)量是7000小時(shí)的語料,8%的錯(cuò)誤率。2015年的訓(xùn)練數(shù)據(jù)是此前的2倍,深度學(xué)習(xí)網(wǎng)絡(luò)是原來的4倍大,2倍的數(shù)據(jù)量,4倍的網(wǎng)絡(luò)復(fù)雜性,實(shí)現(xiàn)的錯(cuò)誤率是5%,但是需要付出什么樣的代價(jià)?就是計(jì)算量的增長(zhǎng)。
所以我們從這兩個(gè)例子可以看出,AI技術(shù)的發(fā)展趨勢(shì)是朝著大數(shù)據(jù)+大模型+大計(jì)算方向發(fā)展,采用更大的模型和數(shù)據(jù)會(huì)使訓(xùn)練出來的模型的精度大幅提高,但這需要更大的計(jì)算資源作為支撐。
AI主要面臨三個(gè)方面的挑戰(zhàn):
一是需要獲取足夠多的標(biāo)注的數(shù)據(jù)用于模型的訓(xùn)練;
二是需要設(shè)計(jì)分布式深度神經(jīng)網(wǎng)絡(luò)模型及算法;
三是需要一個(gè)大的深度學(xué)習(xí)計(jì)算平臺(tái)以及平臺(tái)管理軟件。
針對(duì)上面三個(gè)方面的挑戰(zhàn),我們從四個(gè)層次去設(shè)計(jì)整個(gè)AI計(jì)算解決方案:
第一層次是平臺(tái)層;從整個(gè)AI計(jì)算過程的不同特點(diǎn)需求,我們會(huì)設(shè)計(jì)數(shù)據(jù)預(yù)處理平臺(tái)、訓(xùn)練平臺(tái)、推理平臺(tái),采用不同的網(wǎng)絡(luò)和存儲(chǔ)。
第二個(gè)層次是管理層;對(duì)于復(fù)雜的計(jì)算平臺(tái),我們需要對(duì)資源要進(jìn)行一個(gè)合理的管理、調(diào)度、監(jiān)控、分析,需要一個(gè)系統(tǒng)管理平臺(tái)。比如說浪潮設(shè)計(jì)的針對(duì)深度學(xué)習(xí)場(chǎng)景的深度學(xué)習(xí)管理平臺(tái)AIStation。
第三個(gè)層次是框架層;現(xiàn)在的很多開源出來的框架,如Caffe,包括我們浪潮設(shè)計(jì)的Caffe-MPI、谷歌的Tensorflow、百度的Paddlepaddle,微軟的CNTK等等,這些框架來幫助解決深度學(xué)習(xí)的訓(xùn)練和推理的一些過程。
第四個(gè)層次是應(yīng)用層;針對(duì)實(shí)際的應(yīng)用場(chǎng)景進(jìn)行AI應(yīng)用開發(fā),比如圖像和視頻類應(yīng)用,語音類應(yīng)用,以及自然語言處理的一些應(yīng)用,這些應(yīng)用場(chǎng)景我們?nèi)绾尾捎肁I的方法和算法來進(jìn)行實(shí)現(xiàn)。
在設(shè)計(jì)平臺(tái)層之前我們先看一下AI應(yīng)用的計(jì)算過程。首先我們會(huì)收集到不同的數(shù)據(jù),比如說CT影像的數(shù)據(jù)、語音的數(shù)據(jù),這些數(shù)據(jù)我們會(huì)傳送到數(shù)據(jù)預(yù)處理平臺(tái),進(jìn)行圖片的噪音等處理。處理完之后我們對(duì)數(shù)據(jù)做標(biāo)注,形成訓(xùn)練的數(shù)據(jù)樣本集。訓(xùn)練樣本集我們會(huì)送到模型訓(xùn)練的集群進(jìn)行學(xué)習(xí),也就是模型訓(xùn)練的過程,模型訓(xùn)練完之后會(huì)獲得一個(gè)智能的模型,這個(gè)模型我們會(huì)把它裝載到不同的終端,比如說工作站、手機(jī)、平板,或者說一些云計(jì)算平臺(tái)。最后會(huì)推理或識(shí)別出智能的結(jié)果,比如會(huì)判斷CT影像是否有病灶,識(shí)別是什么方言等。
為了大家對(duì)AI整個(gè)場(chǎng)景理解得更透徹,我們舉個(gè)谷歌的醫(yī)療影像的例子,谷歌最開始從醫(yī)院里面收集到12.8萬張眼底照片的數(shù)據(jù),然后首先對(duì)這些照片經(jīng)過圖像的檢測(cè)分割等數(shù)據(jù)預(yù)處理,預(yù)處理完之后對(duì)整個(gè)眼底特征進(jìn)行標(biāo)注。預(yù)處理和標(biāo)注完之后獲取了訓(xùn)練的樣本集,這些訓(xùn)練樣本集會(huì)采用深度學(xué)習(xí)的一些框架,如TensorFlow進(jìn)行模型的訓(xùn)練,訓(xùn)練出來的模型會(huì)應(yīng)用在終端,比如說手機(jī)上面,進(jìn)行輔助診斷。
這個(gè)應(yīng)用場(chǎng)景看到采用AI技術(shù)的效果是非常好的,其綜合靈敏度和特異值達(dá)到了0.95,比八個(gè)醫(yī)生小組的評(píng)估值0.91還要高。這個(gè)醫(yī)療影像的AI典型案例基本上涵蓋了三個(gè)過程,就是數(shù)據(jù)預(yù)處理、模型訓(xùn)練和推理識(shí)別。
但數(shù)據(jù)預(yù)處理,模型訓(xùn)練和推理識(shí)別這三塊的計(jì)算特點(diǎn)是不一樣的,比如數(shù)據(jù)預(yù)處理主要是IO相對(duì)比較密集,計(jì)算量相對(duì)較少一些;模型訓(xùn)練計(jì)算量比較大,通信也相對(duì)比較密集;針對(duì)推理識(shí)別,需要比較高的吞吐處理能力和對(duì)單個(gè)樣本低延時(shí)的響應(yīng)。
根據(jù)對(duì)AI計(jì)算過程和特點(diǎn)分析來看,AI平臺(tái)層設(shè)計(jì)所面臨的挑戰(zhàn)主要包括三個(gè)方面:
一是在數(shù)據(jù)預(yù)處理階段,會(huì)涉及大量的小文件隨機(jī)讀寫的問題,如何提高數(shù)據(jù)訪問效率是在數(shù)據(jù)預(yù)處理階段面臨最大的挑戰(zhàn)。
二是在訓(xùn)練階段,因?yàn)闀?huì)涉及到大量的模型進(jìn)行調(diào)優(yōu),我們會(huì)訓(xùn)練出一個(gè)最優(yōu)的模型出來,這里需要的計(jì)算資源是巨大的,這是第二個(gè)挑戰(zhàn)。
三是在推理階段,一個(gè)樣本,如一張圖片或者一個(gè)語音樣本過來之后,我們?nèi)绾芜M(jìn)行及時(shí)的響應(yīng),成千上萬的樣本批量過來的時(shí)候,整個(gè)系統(tǒng)的吞吐率如何提高,是推理階段面臨的挑戰(zhàn)。
所以AI平臺(tái)層的設(shè)計(jì)我們從幾個(gè)方面來進(jìn)行針對(duì)性的設(shè)計(jì):
1.計(jì)算架構(gòu),采用CPU+GPU+FPGA混合異購模式,訓(xùn)練采用P100/P40 GPU,推理采用P4 GPU或者FPGA低功耗計(jì)算架構(gòu)。
2.存儲(chǔ)架構(gòu),對(duì)于訓(xùn)練平臺(tái),主要采用高性能的分布式Lustre存儲(chǔ);對(duì)于線上推理平臺(tái),采用HDFS存儲(chǔ)架構(gòu)來設(shè)計(jì)。
3.網(wǎng)絡(luò)架構(gòu),對(duì)于訓(xùn)練平臺(tái),采用高速互聯(lián)的IB網(wǎng)絡(luò);對(duì)于線上推理平臺(tái),因?yàn)槊總€(gè)計(jì)算節(jié)點(diǎn)之間并不需要通信,所需要的網(wǎng)絡(luò)帶寬并不需要那么高,所以一般會(huì)采用萬兆。
4.計(jì)算模式,對(duì)于訓(xùn)練平臺(tái),多個(gè)節(jié)點(diǎn)如果同時(shí)訓(xùn)練將采用分布式并行的方式,比如采用MPI+CUDA計(jì)算模式;對(duì)于線上采用Spark/Hadoop+CUDA計(jì)算模式。
針對(duì)平臺(tái)層,浪潮提供全線AI計(jì)算產(chǎn)品支持,如2 GPU服務(wù)器NF5280M4,主要作為線上推理識(shí)別用。還有支持訓(xùn)練的4 GPU服務(wù)器NF5568M4, 8 GPU服務(wù)器AGX-2,還有我們跟百度聯(lián)合研制的SR-AI Rack,單GPU BOX實(shí)現(xiàn)16 GPU并行,整機(jī)柜實(shí)現(xiàn)64塊GPU并行。針對(duì)線上大規(guī)模部署,要求低功耗,我們也設(shè)計(jì)了FPGA板卡F10A,整個(gè)卡功耗可以做到35瓦,性能達(dá)到1.5TFlops。目前浪潮是領(lǐng)先的AI計(jì)算廠商,很多用戶在采用浪潮的計(jì)算產(chǎn)品,在大型互聯(lián)網(wǎng)市場(chǎng)AI產(chǎn)品市場(chǎng)占有率達(dá)到80%以上。
整個(gè)系統(tǒng)部署好之后,既有CPU計(jì)算節(jié)點(diǎn),也有GPU計(jì)算節(jié)點(diǎn),對(duì)整個(gè)計(jì)算系統(tǒng)我們?nèi)绾斡行У墓芾砥饋恚涿媾R的挑戰(zhàn)有幾個(gè)方面:
第一,針對(duì)不同的計(jì)算平臺(tái)和計(jì)算設(shè)備,如CPU、GPU或者FPGA,如何進(jìn)行有效的管理。
第二,針對(duì)不同的計(jì)算任務(wù)和計(jì)算框架,如何進(jìn)行合理的調(diào)度。
第三,針對(duì)整個(gè)系統(tǒng)和不同的計(jì)算作業(yè),如何進(jìn)行監(jiān)控。
應(yīng)對(duì)上述三個(gè)方面的挑戰(zhàn),浪潮設(shè)計(jì)的深度學(xué)習(xí)管理系統(tǒng)AIStation可以實(shí)現(xiàn)五大功能:深度學(xué)習(xí)框架的快速部署、深度學(xué)習(xí)訓(xùn)練任務(wù)的管理、GPU 與CPU資源的調(diào)度、系統(tǒng)資源與健康狀態(tài)的監(jiān)控、應(yīng)用特征分析。
目前開源出來的深度學(xué)習(xí)框架非常多,如Caffe、TensorFlow、MXNet、Torch等等,框架眾多,如何選擇?選擇一種框架還是選擇多種?以及針對(duì)什么場(chǎng)景或者什么樣的模型來選擇什么樣的框架,針對(duì)多大數(shù)據(jù)量,選擇多機(jī)并行的框架。以上是我們針對(duì)深度學(xué)習(xí)框架所面臨幾個(gè)方面的挑戰(zhàn)。
我們?cè)谶x擇框架的時(shí)候,實(shí)際上可以針對(duì)目前的一些主流框架做一個(gè)評(píng)測(cè),之前我們跟美國某知名的互聯(lián)網(wǎng)公司開展過聯(lián)合測(cè)試,對(duì)他們所關(guān)心的深度學(xué)習(xí)框架做了一個(gè)測(cè)評(píng)。
我們把三個(gè)主流的框架Caffe、TensorFlow和MXNet部署到我們16 GPU BOX服務(wù)器平臺(tái)上面,采用Imagenet數(shù)據(jù)集,測(cè)試Alexnet和GooLeNet兩種典型網(wǎng)絡(luò)。從測(cè)試結(jié)果來看當(dāng)運(yùn)行Alexnet網(wǎng)絡(luò)時(shí),Caffe性能最好,每秒可以訓(xùn)練圖片張數(shù)達(dá)到4675張,16個(gè)GPU比單個(gè)GPU的加速比達(dá)到14倍,其次是MXNet,最后是TensorFlow。當(dāng)運(yùn)行GooLeNet時(shí),MXNet性能最好,每秒可以訓(xùn)練的圖片張數(shù)達(dá)到2462張,16個(gè)GPU比單個(gè)GPU的加速比達(dá)到12.7倍,其次是Caffe,最后是TensorFlow。從這個(gè)評(píng)測(cè)來看,基于不同的網(wǎng)絡(luò),所選擇最優(yōu)的框架是不一樣的。
基本上可以有大致的一個(gè)原則來選擇:我們會(huì)根據(jù)不同的場(chǎng)景和模型來選擇至少一種深度學(xué)習(xí)框架,目前很難說一種框架能在所有的應(yīng)用場(chǎng)景中表現(xiàn)最優(yōu),如果是圖像方面的應(yīng)用,主要采用Caffe、TensorFlow和MXNET這三種框架。如果是語音的話,可以選擇CNTK,當(dāng)然還有其他的框架。自然語言處理的話可以采用PaddlePaddle,針對(duì)大數(shù)據(jù)量的訓(xùn)練,采用單機(jī)訓(xùn)練的話時(shí)間會(huì)很長(zhǎng),有可能是幾周或幾個(gè)月訓(xùn)練出一個(gè)模型,需要采用分布式框架,如浪潮自研的Caffe-MPI,這個(gè)框架就實(shí)現(xiàn)了多機(jī)多GPU卡的并行訓(xùn)練。通過實(shí)際測(cè)試,Caffe-MPI采用16個(gè)GPU卡同時(shí)訓(xùn)練時(shí),每秒可以處理的效率達(dá)到3061張,較單卡性能提升13倍,擴(kuò)展效率達(dá)到81%,性能將近是TensorFlow的2倍,Caffe-MPI目前已經(jīng)在Github上開源了,可以下載使用。
應(yīng)用層面臨如下幾個(gè)方面挑戰(zhàn):
一、如何利用深度學(xué)習(xí)的方法,提高識(shí)別的正確率,這里面會(huì)涉及到模型和算法的設(shè)計(jì)、數(shù)據(jù)預(yù)處理。
二、GPU編程,在訓(xùn)練程序的設(shè)計(jì)過程中會(huì)涉及到寫部分的GPU的代碼,比如我們會(huì)添加一些新的層,會(huì)寫一些相對(duì)應(yīng)的CUDA代碼。
三、FPGA編程,在推理階段,可能會(huì)采用FPGA平臺(tái),需要把應(yīng)用從CPU遷移到FPGA上,采用OpenCL編程或者采用偏底層硬件編程語言Verilog,其編程的復(fù)雜度相對(duì)較高。
針對(duì)AI應(yīng)用挑戰(zhàn),浪潮成立了兩個(gè)聯(lián)合實(shí)驗(yàn)室:Inspur-Intel中國并行計(jì)算聯(lián)合實(shí)驗(yàn)室和Inspur-NVIDIA GPU 聯(lián)合實(shí)驗(yàn)室,針對(duì)GPU、MIC、FPGA異構(gòu)技術(shù)和AI應(yīng)用進(jìn)行研究,我們具備CPU+GPU,CPU+MIC,CPU+FPGA三大異構(gòu)技術(shù),可以幫助用戶來設(shè)計(jì)深度學(xué)習(xí)的一些模型算法,進(jìn)行GPU、MIC、FPGA應(yīng)用的遷移和優(yōu)化。
在AI方面,我們2014年就開始跟一些典型的互聯(lián)網(wǎng)用戶開展應(yīng)用合作,如以圖搜圖應(yīng)用,其核心算法是Kmeans,幫助用戶實(shí)現(xiàn)從CPU到GPU上的遷移,核心算法性能提升35X,整體應(yīng)用性能提升2.2倍。另外一個(gè)應(yīng)用是關(guān)于語音方面的,主要是語音模型的訓(xùn)練,采用深度學(xué)習(xí)的方法,我們幫助用戶從單機(jī)GPU版本實(shí)現(xiàn)16 GPU卡的多機(jī)并行版本,性能提升13倍,大大縮短整個(gè)深度學(xué)習(xí)訓(xùn)練的時(shí)間,實(shí)現(xiàn)支持萬小時(shí)以上語音數(shù)據(jù)訓(xùn)練。
還有一個(gè)案例就是在網(wǎng)絡(luò)安全方面的應(yīng)用,此應(yīng)用采用深度學(xué)習(xí)技術(shù),用戶實(shí)現(xiàn)基礎(chǔ)的Python算法版本,我們幫助實(shí)現(xiàn)GPU的遷移與優(yōu)化,單個(gè)GPU計(jì)算,其性能比原來CPU基準(zhǔn)版本加速了90倍,采用四塊GPU并行,其性能是基準(zhǔn)CPU版本的270倍。
最后一個(gè)應(yīng)用案例是線上語音識(shí)別應(yīng)用,采用DNN深度神經(jīng)網(wǎng)絡(luò),幫助用戶把DNN從CPU平臺(tái)到FPGA平臺(tái)的遷移與優(yōu)化,1塊FPGA卡的性能相當(dāng)于兩塊CPU的2.8倍。功耗只有CPU的15.7%,性能功耗是CPU的18倍。
基于AI系統(tǒng)四個(gè)層次設(shè)計(jì)所面臨的挑戰(zhàn)和相應(yīng)解決方案,我們?cè)O(shè)計(jì)了整個(gè)AI端到端的解決方案,針對(duì)不同的數(shù)據(jù)源,如圖像、視頻、語音、文字等首先會(huì)送到我們CPU的處理平臺(tái)上面進(jìn)行預(yù)處理,預(yù)處理完的數(shù)據(jù)我們會(huì)存放到共享存儲(chǔ)上去,然后GPU的集群訓(xùn)練平臺(tái)會(huì)從存儲(chǔ)里把訓(xùn)練數(shù)據(jù)并行讀取過來進(jìn)行訓(xùn)練,整個(gè)訓(xùn)練平臺(tái)我們可以采用4 GPU、8 GPU或16 GPU BOX設(shè)備,在訓(xùn)練平臺(tái)我們會(huì)部署深度學(xué)習(xí)管理系統(tǒng)AIStation和天眼工具。訓(xùn)練完之后的生成的模型,將會(huì)加載到不同的計(jì)算設(shè)備上去,如P8000 GPU 工作站、FPGA卡、GPU AI云平臺(tái)進(jìn)行推理識(shí)別的服務(wù)。最后實(shí)現(xiàn)各種智能結(jié)果。就是說我們整個(gè)AI端到端計(jì)算的解決方案。
1.浪潮面向人工智能開發(fā)的計(jì)算平臺(tái),如之前發(fā)布的GX-2,相對(duì)于其他的計(jì)算產(chǎn)品有什么特點(diǎn)?
張清:GX-2目前是全球最高密度的GPU服務(wù)器,他在2U的空間里可以插8塊GPU卡,既可以支持PCIE,而且還可以支持NVLINK 2.0。
2.浪潮的方案都是基于GPU,請(qǐng)問張總浪潮的人工智能平臺(tái)和其云計(jì)算解決方案或超融合架構(gòu)有何匹配及聯(lián)系?數(shù)據(jù)如何獲?。坑布矫娑际遣捎猛ㄓ梅?wù)器?
張清:浪潮的方案在模型訓(xùn)練主要是GPU方案,推理我們還有FPGA方案。目前浪潮的人工智能平臺(tái)和其云計(jì)算解決方案或超融合架構(gòu)沒有對(duì)應(yīng)匹配及聯(lián)系。數(shù)據(jù)有些來自開源社區(qū)、有些來自客戶,還有些是公共平臺(tái)數(shù)據(jù)。硬件方面主要采用通用服務(wù)器,也有與用戶定制化開發(fā)的服務(wù)器,如SR-AI Rack.
3.公共數(shù)據(jù)平臺(tái)主要指?包含運(yùn)營商等渠道吧?用戶是在平臺(tái)上沉淀的用戶數(shù)據(jù),應(yīng)該不會(huì)直面最終用戶吧?
張清:公共數(shù)據(jù)平臺(tái)主要是指浪潮的天元大數(shù)據(jù),有政府公開數(shù)據(jù)、聯(lián)盟伙伴數(shù)據(jù)、浪潮自有數(shù)據(jù)。用戶在平臺(tái)上沉淀的數(shù)據(jù)僅作為實(shí)驗(yàn)使用,用戶實(shí)際場(chǎng)景的數(shù)據(jù)不會(huì)直面給其他最終用戶。
群友:相當(dāng)于應(yīng)用層能力開放,人工智能平臺(tái)聚合開發(fā)者做的應(yīng)用,然后用戶數(shù)據(jù)直接積累到平臺(tái)。
張清:嗯,用戶的實(shí)驗(yàn)數(shù)據(jù)會(huì)積累到平臺(tái)。
(本文獨(dú)家首發(fā)鈦媒體,根據(jù)浪潮人工智能首席架構(gòu)師張清在鈦坦白上的分享整理)
……………………………………………………
詳情:http://m.chcmb.cn/2657202.html
快報(bào)
根據(jù)《網(wǎng)絡(luò)安全法》實(shí)名制要求,請(qǐng)綁定手機(jī)號(hào)后發(fā)表評(píng)論
很期待