鈦媒體App 2月21日消息,一家名為Groq的初創(chuàng)公司在AI圈爆火。主要因其自研的LPU芯片在AI推理技術上,通過優(yōu)化架構和減少內存瓶頸,實現(xiàn)了高效率和低延遲,在處理大模型時的速度遠超
英偉達GPU,每秒生成速度接近500 tokens,而GPT-4僅40tokens。
不過,原Facebook人工智能科學家,原阿里技術副總裁賈揚清發(fā)文分析,因為Groq小的可憐的內存容量(230MB),在運行Llama-2 70b模型時,需要305張Groq卡才足夠,而用H100則只需要8張卡。從目前的價格來看,這意味著在同等吞吐量下,Groq的硬件成本是H100的40倍,能耗成本是10倍。如果運行三年的話,Groq的硬件采購成本是1144萬美元,運營成本是76.2萬美元或更高。8卡H100的硬件采購成本是30萬美元,運營成本是7.2萬美元或略低。
根據(jù)《網絡安全法》實名制要求,請綁定手機號后發(fā)表評論