國內GPU公司天數智芯在WAIC 2023上展示的板卡產品(來源:受訪者提供)
今年以來,隨著ChatGPT和人工智能(AI)大模型引發(fā)熱潮,大模型產品層出不窮。隨之而來的是對 AI 算力的需求,也出現爆發(fā)式增長,算力供需出現巨大缺口,所有人都開始搶購美國芯片巨頭英偉達的A100顯卡作為大模型“入場券”。
如今,大算力底座已成為 AI 大模型發(fā)展的“標配”。
7月6日-8日舉行的2023年世界人工智能大會(WAIC)昇騰分論壇上,華為輪值董事長胡厚崑表示,伴隨大模型帶來的生成式AI突破,AI 正在進入一個新的時代。算力是 AI 產業(yè)創(chuàng)新的基礎,大模型的持續(xù)創(chuàng)新,驅動算力需求的爆炸式增長。可以說,大模型訓練的效率或者是創(chuàng)新的速度,根本上取決于算力的大小。中國的算力已經成為一個越來越稀缺的資源。
本屆WAIC上,華為推出首個昇騰萬卡AI集群。截至目前,昇騰AI集群已支撐全國25個城市的人工智能計算中心建設。據悉,昇騰AI原生孵化和適配了30多個大模型,目前中國有一半左右的大模型創(chuàng)新,都是由昇騰AI支持。
與華為昇騰不同,國內通用GPU公司天數智芯研發(fā)的天垓100芯片已經開始跑通多個大模型,包括智譜 AI 大模型ChatGLM,國外主流的LLaMA,以及北京智源研究院的Aquila等產品;而百度昆侖芯公司在今年6月披露,其產品矩陣已適配文心一言、ChatGLM、GPT等主流行業(yè)大模型。
本屆WAIC上,當被問及如果英偉達A800不能在中國售賣國產GPU能否替代,天數智芯董事長兼CEO蓋魯江對鈦媒體App等表示:
“目前我們已經證明可以用了,不管他們的能不能買,或者賣不賣給中國,我們的產品現在已經在用起來了。”
基于目前國內 AI 大模型算力布局,無論是訓練還是推理,AI 大模型算力主要分為三派:
那么,這么多的算力供應渠道,中國本土的AI芯片到底行不行?
“沒有大算力做大模型就是天方夜譚。”中國工程院院士、鵬城實驗室主任高文在WAIC 2023昇騰人工智能產業(yè)高峰論壇上表示,從現在開始,算力已經成為是數字經濟發(fā)展的一個指標,算力夠,你的數字經濟就能發(fā)展好,不夠就發(fā)展不好。
據中國信通院數據,每1元的算力投入,可以帶動3-4元的國家GDP(國內生產總值)經濟產出,實現經濟增長的倍增效應。麥肯錫則預測,生成式 AI 最終每年可為世界經濟增加7.3萬億美元的價值。
7月8日WAIC大模型生產與產業(yè)落地合作論壇上,一位中國科學院研究中心主任甚至直言,“沒有算力平臺,數字經濟將‘不復存在’。”
而對于大模型企業(yè)來說,巨大的算力成本是首先要考慮的問題。
本屆WAIC上,畢馬威和聯想集團聯手發(fā)布的《普慧算力開啟新計算時代》報告顯示,以構建GPT-3為例,OpenAI數據顯示,滿足GPT-3算力需求至少要上萬顆英偉達GPU A100,一次模型訓練成本超過1200萬美元,這還不包括模型推理成本和后續(xù)升級所需的訓練成本。
在WAIC騰訊分論壇上,NVIDIA英偉達全球副總裁、中國云計算和互聯網行業(yè)總經理何濤提到,到了大語言模型的時代,算力必須發(fā)展。如果數據足夠大,算法模型也足夠大,算力需求也特別大。
所以,華為提出了鯤鵬和昇騰 AI 算力方案,沒有英偉達GPU,重點應用于政務、金融等領域,在智算中心實現模型訓練,隨后在華為云或其他混合云中實現模型推理。
本屆WAIC上,華為宣布昇騰AI集群全面升級,集群規(guī)模從最初的4000卡集群擴展至16000卡,是業(yè)界首個萬卡AI集群,擁有更快的訓練速度和30天以上的穩(wěn)定訓練周期。同時,華為還與知乎/面壁智能、清華智譜AI、科大訊飛、云從科技等多家擁有大模型的公司聯合發(fā)布的昇騰AI大模型訓推一體化解決方案,建立“生態(tài)包圍網”。
胡厚崑表示,華為在各個單點創(chuàng)新的基礎上,充分發(fā)揮云、計算、存儲、網絡以及能源的綜合優(yōu)勢,進行架構創(chuàng)新,推出了昇騰AI集群,相當于把AI算力中心當成一臺超級計算機來設計,使得昇騰AI集群性能更高,并且可靠性更高。“據我所知,目前我們已經可以達到10%以上的大模型訓練效率的提升,可以提供10倍以上的系統(tǒng)穩(wěn)定的提高,支持長期穩(wěn)定訓練。”
胡厚崑在開幕式上談到,華為推出了對等平構架構,以突破傳統(tǒng)以CPU為中心的異構計算帶來的性能瓶頸,提升了整個計算的帶寬,使得節(jié)點的性能可提升30%。同時,華為部署的昇騰AI集群實現10%的效率提升。
“中國的算力很難跟上不斷增長的 AI 需求,而且 AI 算力缺乏穩(wěn)定性。許多公司花高價購買英偉達GPU,但訓練中GPU會出現故障不得不重新訓練,交貨時間很長、代價大。我們希望在 AI 算力方面提供一種替代方案。”7月7日華為云CEO張平安在華為云盤古大模型3.0發(fā)布會上直言,由于華為不可以用英偉達成熟的GPU,所以華為使用的自研的鯤鵬和昇騰AI算力方案,建立智算中心訓練大模型。
張平安指出,華為云在貴安、烏蘭察布、安徽蕪湖等地都建立了算力中心,訓練效率領先于業(yè)界主流GPU的1.1倍,昇騰Al云服務整個算力達2000PFlops。
![]()
華為昇騰計算業(yè)務總裁張迪煊表示,基于昇騰AI,原生孵化和適配了30多個大模型,到目前為止,中國有一半左右的大模型創(chuàng)新,都是由昇騰AI來支持的。昇騰的生態(tài)也逐步發(fā)展壯大,有180萬開發(fā)者在昇騰開發(fā)平臺上工作;與300多所高校院所與昇騰開展合作,每年培養(yǎng)超過10萬名專業(yè)的AI人才。
除了華為之外,以阿里云、騰訊云、字節(jié)、商湯等企業(yè)為代表的算力底層,囤積大量的英偉達A100、T40芯片組進行模型訓練,部分智算中心則增加AMD、英特爾芯片,以及天數智芯、寒武紀、海光等國產芯片,為客戶提供異構、混合型算力支持。
智算廠商方面,阿里云表示,其擁有國內最強的智能算力儲備,阿里云的智算集群可支持最大十萬卡GPU規(guī)模,承載多個萬億參數大模型同時在線訓練,擁有大規(guī)模AI集群。而在AI平臺層,阿里云將AI訓練效率提升可達10倍,推理效率提升可達6倍。目前,阿里發(fā)起的AI模型社區(qū)魔搭已擁有180多萬AI開發(fā)者、900多個優(yōu)質AI模型,以及30多個10億以上參數規(guī)模大模型。
騰訊云則大量采購了英偉達A100/H800芯片,發(fā)布新一代HCC高性能計算集群,實現業(yè)界最高的3.2T超高互聯帶寬,提供高性能、高帶寬和低延遲的集群算力,用于大模型訓練、自動駕駛、科學計算等領域。基于新一代集群,騰訊團隊在同等數據集下,將萬億參數的AI大模型“混元NLP”訓練由50天縮短到4天。據悉,騰訊云服務器組還使用了AMD、燧原科技的芯片產品。
火山引擎副總裁張鑫澤透露,其擁有龐大的算力支持,亞州/美洲有數百萬CPU核心、超過20PB內存、數萬張GPU計算卡,訓練系統(tǒng)單日樣本吞吐最超百萬億,高峰時GPU利用率達90%。此前消息稱,字節(jié)跳動目前已經購買和到貨英偉達A100/H800加速卡共10萬塊。
![]()
據聯想和畢馬威的分析報告預計,阿里云目前擁有200-300萬臺服務器,騰訊云擁有100-200萬臺服務器,字節(jié)跳動和華為云擁有約100萬臺服務器。
與此同時,從芯片端看,目前在加速計算/大模型算力領域,英偉達在全球市場占比高達95%以上,甚至可達99%。英偉達無論產品力還是CUDA算力生態(tài)構建,都是首屈一指,也“收割”了本輪AI熱潮以來最大的利潤。
據登臨科技聯合創(chuàng)始人王震宇估算,2022年,英偉達在中國市場的數據中心產品銷售額約400億元,按照行業(yè)機構預估,到2026年將會達1000億元,這是在ChatGPT爆火之前的預測。
在WAIC 2023上,蓋魯江告訴鈦媒體App,天垓100是該公司2018年研發(fā)的通用 AI 訓練芯片,目前這款產品目前已經成功跑通了清華智譜 AI 大模型ChatGLM,Meta研發(fā)的LLaMA模型,北京智源研究院的Aquila模型等。
“現在大模型發(fā)展的核心三要素:算法、數據及算力,算力是底座。在6月9日,我們跟北京智源研究院,在北京發(fā)布了他們的AquilaCode-7B模型,用的就是我們天垓100這款產品在跑,這也充分體現了天數智芯產品的通用性。目前我們正在幫他們跑650億參數的模型,預計10月份可以跑完。”蓋魯江表示,預計今年年底以及明年,天數智芯都會有新的產品推出來,而且對大模型算法做了硬件級優(yōu)化。
如果不采用通用架構,客戶進行平臺切換門檻比較高。蓋魯江表示,天數智芯在第一階段就走了一條兼容國際主流生態(tài)的路線,公司2022年全年確認收入在2.5億元左右。“因為我是通用架構,基于我的硬件去做軟件棧的開發(fā),再在API接口層面兼容國際主流生態(tài),這樣其實讓我們的下游客戶能更方便地用起來,讓他們的遷移成本很低。所以說在商業(yè)化這條路上,我們已經率先邁出了一步。”
另一家騰訊投資的AI芯片公司燧原科技。已擁有邃思系列芯片、云燧訓練和推理加速卡和云燧智算機的全系列算力產品線。在WAIC 2023上,燧原科技發(fā)布了全新文生圖MaaS平臺服務產品“燧原曜圖(LumiCanvas)”,利用燧原科技的算力以及首都在線的基礎設施,實現文生圖模型訓練和推理。
燧原科技創(chuàng)始人、董事長、CEO趙立東在本屆WAIC AI芯片論壇上提到,目前燧原已經為大型科研機構部署了千卡規(guī)模的AI訓練算力集群,并成功落地;而且與騰訊合作,在OCR文字識別,智能交互,智能會議等方面,性能達到了業(yè)界同類產品兩倍以上,性價比上具有很高優(yōu)勢。此外,在智慧城市方面,燧原完成2022年成都高新區(qū)國產化AI視頻基礎設施平臺項目建設。
鈦媒體App在現場了解到,燧原科技公開的生態(tài)伙伴已包括騰訊、上海銀行、中國移動、中國聯通、新華三、卓視智通、北京智源、中科院計算所、之江實驗室、清華大學、西安交通大學等30家以上的機構。
今年7月7日獲得中國互聯網投資基金獨家投資的通用GPU研發(fā)商上海登臨科技,在WAIC現場展示了第二代通用GPU Goldwasser(高凜)系列產品。鈦媒體App了解到,高凜二代已針對基于Transformer和生成式AI 大模型進行專門優(yōu)化,在性能有大幅提升,已于2022年流片,目前已開始規(guī)模化量產和商業(yè)客戶驗證。據現有客戶測試結果,二代產品針對基于transformer類型的模型提供3-5倍的性能提升,大幅降低類ChatGPT及生成式AI應用的硬件成本。
最后一類是服務器云和各地算力中心,大模型公司與其合作/租用形式,補充算力訓練不足的情況。而在服務器底層則依然用英偉達、鯤鵬、寒武紀、海光等產品。
例如,北京超級云計算中心官網披露,擁有超過50PFlops通用超算算力,超60萬CPU核心數,超過20萬算力用戶;上海到2023年底,依托本市人工智能公共算力服務平臺,接入并調度4個以上算力基礎設施,可調度智能算力達到1000 PFLOPS(FP16)以上;到2025年,上海市數據中心算力預計將超過18000 PFLOPS(FP32)。
今年6月初,鴻博股份透露,搜狗創(chuàng)始人王小川成立的大模型公司百川智能(五季智能)和其簽署了一個1280P的訂單;二期正在推進,具體將圍繞客戶需求展開。據悉,鴻博股份全資子公司英博數科將在協(xié)議簽署后的12個月內向五季智能提供高性能GPU算力出租服務,1期交付不超過256臺服務器總計不低于1280P算力。
不過目前,國內 AI 算力、國產GPU芯片還存在制程工藝和產品規(guī)格限制、沒有雙精度浮點功能、沒有CUDA這種完整生態(tài)、與其他芯片之間的解耦性較差、通信網絡連接問題導致算力損耗高等挑戰(zhàn)亟待解決。
多位行業(yè)內人士對鈦媒體App透露,當下大部分模型訓練領域仍會用英偉達產品,但信創(chuàng)、政務等數據私有化程度高的領域會更多采用本土算力。
“全球CUDA生態(tài)的注冊開發(fā)者人數接近400萬,多年來大家一直在沿用這一生態(tài)架構。因此,國內GPU企業(yè)現在面臨生態(tài)遷移問題,操作系統(tǒng)、編程系統(tǒng)不一樣。如果企業(yè)要換一個新的生態(tài),就要做大量代碼性的遷移及改變,這個成本及時間是非常高的。”蓋魯江透露,天數智芯在持續(xù)加大這部分投入,但這需要行業(yè)上下游企業(yè)共同研發(fā),需要時間和過程。
“中國目前大算力芯片的發(fā)展還處于起步階段。”清華大學電子工程系長聘教授、系主任汪玉認為,天數智芯、燧原科技、寒武紀等本土芯片算力如何做到高效統(tǒng)一的部署,在芯片上把這樣的算法跑起來,是一個非常重要的問題。
啟明創(chuàng)投合伙人葉冠泰表示,大模型時代,訓練千億參數、萬億參數的模型必不可少的就是算力,大模型參數規(guī)模的高速增長對GPU的能力不斷提出更高的要求。大算力的GPU要支撐各種各樣的模型,需要具備穩(wěn)定性、擴展性、延遲控制、性價比等,展現出典型的“木桶理論”,而且大算力芯片的推廣,需要整個上下游的生態(tài)支持。AI的時代已經到來,芯片公司需要和大模型公司緊密合作。
據畢馬威和聯想聯手發(fā)布的報告數據顯示,放眼全球,算力已成為各國科技戰(zhàn)略布局重點。當前,美、中、歐、日基本穩(wěn)居全球算力產業(yè)規(guī)模前四,美、中兩國處在領先地位且中國算力規(guī)模增速明顯領跑。各國算力投資或補貼計劃均超千億。
經初步測算,到2025年,數據中心、云計算、人工智能市場規(guī)??傆媽⑼黄?.5萬億元,算力核心產業(yè)規(guī)模將不低于4.4萬億元,關聯產業(yè)規(guī)??蛇_24萬億元,成為與新能源汽車比肩的超萬億級高潛賽道。
華泰證券研究所科技行業(yè)首席分析師黃樂平在WAIC上表示,未來AI應用的逐步豐富將推動推理芯片等相關市場保持強勁增長,算力需求增長會率先利好算力芯片、光模塊、服務器產業(yè)鏈等“送水人”。
“芯片半導體行業(yè)沒有捷徑可言。專注于產品研發(fā)和與用戶的合作,踏踏實實做事,最后用產品說話。傾聽客戶需求是重中之重。”壁仞科技合伙人梁剛在WAIC 2023啟明創(chuàng)投分論壇上稱。據悉,今年WAIC,寒武紀、壁仞科技等部分 AI 芯片公司沒有參展。(本文首發(fā)鈦媒體App,作者|林志佳)
快報
根據《網絡安全法》實名制要求,請綁定手機號后發(fā)表評論