出品|虎嗅科技組
作者|包校千
編輯|陳伊凡
題圖|視覺中國
由OpenAI自主開發的聊天應用ChatGPT風靡全球後,立即在全球范圍內掀起了大模型開發的熱潮。
但準備參戰的玩家們很快便認清現實,這不過是一場由巨頭主宰的遊戲,其中的關鍵,就是能耗。
知名計算機專家吳軍的形容並不誇張——ChatGPT每訓練一次,相當於3000輛特斯拉的電動汽車,每輛跑到20萬英裡,約32.19萬公裡。
而普通家用汽車年均行駛裡程在1.5萬公裡左右,ChatGPT每訓練一次,就相當於3000輛特斯拉在一個月走完了21年的路。
即便是對大模型躍躍欲試,準備『帶資入組』的大佬,也不得不掂量下:腰包裡的銀兩,究竟夠花多久?
過去一年,OpenAI的總支出是5.44億美元。
國盛證券估算,GPT-3的單次訓練成本就高達140萬美元,對於一些更大的LLM《大型語言模型》,訓練成本介於200萬美元至1200萬美元之間。
其中,『大模型訓練成本中60%是電費,』華為AI首席科學家田奇在近日一場AI大模型技術論壇上強調,電力的降本增效已迫在眉睫。
如果大模型普及,全球飛速運轉的服務器,怕不會把地球燒了。
既然大模型訓練的成本中,電費占主要部分,那麼究竟是哪些環節在耗電?又能如何優化?
大模型是『電老虎』
OpenAI曾在其《AIandCompute》分析報告中指出,自2012年以來,AI訓練應用的電力需求每3個月到4個月就會翻一倍。
根據田奇給出的數據,AI算力在過去10年至少增長了40萬倍。
其中,拉高AI大模型能耗的一大要因,就是參數訓練集的規模。
OpenAI首席執行官SamAltman在接受公開采訪時表示,GPT-3的參數量為1750億。
最近發佈的GTP-4參數量是GTP-3的20倍,計算量是GTP-3的10倍。
最快於2024年底發佈的GTP-5,參數量將達到GTP-3的100倍,計算量將飆升至200到400倍。
根據斯坦福人工智能研究所《HAI》發佈的《2023年人工智能指數報告》,訓練像OpenAI的GPT-3這樣的人工智能模型所需消耗的能量,足可以讓一個普通美國家庭用上數百年了。
GPT-3是目前大模型中有據可查的第一大『電老虎』,耗電量高達1287兆瓦時。
公司模型參數量PUE電力消耗DeepMindGopher280B1.081066MWhHugging FaceBLOOM176B1.20433MWhOpenAIGPT-3175B1.101287MWhMetaAIOPT175B1.09324MWh
數據來源:Luccioni et al.,2022,虎嗅制圖
即使是由人工智能初創公司Hugging Face搭建的更為高效的BLOOM模型,耗電量也達到433兆瓦時,足以為一個普通美國家庭供電41年。
參數訓練集的規模,是拉高大模型能耗的主要因素。
其中AI處理器和芯片,是產生能耗最主要的地方,一位信息和通信技術從業者告訴虎嗅,CPU和GPU的功耗通常占服務器整機的80%。
不過和普通服務器750W到1200W的標準功耗相比,AI服務器由於配置多個系統級芯片,在運行AI模型時會產生更多的能耗。
以英偉達DGX A100服務器為例,搭載8顆A100 80GB GPU,最大系統功耗達到6500W,外形尺寸為6U,考慮42U的標準機櫃,則單機櫃可放置7個DGX A100服務器,對應功耗為45.5KW。
按照ChatGPT在今年1月日均1300萬的UV標準,OpenAI需要3萬多張A100 GPU,初始投入成本約為8億美元,折算下來的電費每天是5萬美元左右。
『如果大模型的使用者越來越多,為了保證時延,需要追加服務器訂單,來提供更多的基礎算力。
假設有10萬用戶的並發計算量,差不多要30萬到40萬張GPU才夠』某頭部數據中心業務負責人推算道。
數據顯示,ChatGPT的總算力消耗約為3640PF-days,這需要七到八個投資規模30億、算力為500P的數據中心才能支撐運行。
根據半導體行業資訊機構SemiAnalysis估算,未來如果讓ChatGPT承擔谷歌搜索的全部訪問量,至少也需要410萬張英偉達A100 GPU。
OpenAI訓練其模型所需的雲計算基礎設施規模是前所未有的,比業內任何人試圖構建的GPU算力集群都要龐大
目前,微軟在六十多個Azure數據中心部署了幾十萬張GPU,為ChatGPT提供超強算力。
作為OpenAI最大的投資方,微軟拿到了雲計算基礎設施的獨家供應權,並開始下一代AI超級計算機的開發工作當中,數萬張英偉達A100 GPU以及新一代H100 GPU都將被導入其中。
前所未有的算力規模,連業內專家都在感慨,這是一件多麼瘋狂的事。
AI引發新技術革命
瘋狂的事,催生更瘋狂的想象力。
眼下,就連呼籲暫停大模型開發的馬斯克,也要打造『推特版的ChatGPT』了。
根據美國知名科技媒體Business Insider報道,馬斯克已經購買了一萬塊GPU,通過生成式的AI大模型和海量數據,強化推特的搜索功能並幫助其廣告業務重整旗鼓。
作為OpenAI的早期投資人,外界一直對馬斯克抵制AI發展的態度半信半疑。
就在本月初,網絡上還有傳言稱馬斯克將在半年後打造比GPT4更強大的大模型。
更有傳言稱,馬斯克計劃通過SpaceX把超級計算機搬到太空上,目的是節約制冷和耗能。
且不論這件事的真假,看起來倒是個好點子。
截圖來自網絡
打造太空數據中心,似乎能享有得天獨厚的資源稟賦:24小時天然低溫散熱,全年無限量太陽能,而且全部都免費。
那麼這個絕妙的創意,到底靠不靠譜?
一位民營商業航天專家否定了這個想法,他告訴虎嗅,太空超低溫環境確實不假,但很多人忽略了一個基本的物理常識,那就是所有熱量的交換都是靠分子運動實現的。
而太空環境趨近於真空,所含物質過於稀少,因此,『雖然溫度低,但是導熱慢,自然散熱條件其實遠不如地面』
其次,目前衛星太陽能帆板的供電系統普遍功率隻有1200W,無論是電力供應還是成本,地面光伏解決方案都有絕對的優勢。
另外,訓練大模型需要大量的數據輸入和輸出,這要求服務器具備超高的網絡帶寬能力。
太空信息基礎設施提供商艾可薩聯合創始人王瑋認為,數據中心作為網絡互聯底座,保證數據傳輸的穩定性和速率至關重要。
但就目前來看,『即便消耗星鏈全部的帶寬,都未必都能保證大模型訓練所需的數據實時傳輸需求』
當然,還有一些革命性的技術創新被ChatGPT帶火,中科創星創始合夥人米磊表示,最典型的就是光子技術。
比如具備高算力、低能耗優勢的光電共封裝《CPO》技術。
簡而言之就是將光器件和交換芯片封裝在一起,為暴漲的算力需求提供了一種高密度、高能效、低成本的高速互連解決方案。
米磊認為,本輪大模型領域的熱潮代表了『AI技術的發展進入了全新階段』。
作為一種用光進行運算的芯片,其耗電量僅占同等級電子芯片的六分之一。
隨著人工智能不斷發展,訓練、運行這些產品需要的算力水平也越來越高,行業對高速率、低能耗的光芯片也越發期待。
截至目前,中科創星在光電領域累計投資了超過150家企業。
早在2016年米磊就提出,光是人工智能的基礎設施,光子是新一代信息技術基石的理念。
『喊了這麼多年,冷門的技術終於被ChatGPT帶火了』最近二級市場上光芯片相關股票的大漲也體現出了這一點。
這種偶然性,在米磊看來是必然趨勢。
著眼於當下,降低AI模型整體能耗、節省電費開支的主要方式,依然是想辦法提高數據中心的散熱效率。
中金公司認為,以液冷技術為代表的主動散熱技術有望憑借優良的散熱性能被更多地采用。
相較於傳統的風冷系統,液冷系統直接將熱負荷傳遞至冷凍水系統中,制冷效率更高且占地更小,能夠提升服務器的使用效率及穩定性,滿足高功率密度機櫃的散熱要求。
例如英偉達HGX A100采用的直接芯片(Direct-to-Chip)冷卻技術,在機架內直接整合液冷散熱系統,取代傳統的風冷系統散熱,實測消耗的能源減少了約30%。
而液冷數據中心的PUE(電源使用效率)能達到1.15,遠低於風冷的PUE 1.6。
隨著大模型對算力的渴求,市場對高性能芯片的需求還將進一步提升。
新思科技全球資深副總裁兼中國董事長葛群就曾表示,到2025年全球數據中心占整個全球用電量將要提升到全球的20%。
『因此,在全球最領先的科技公司中,最重要的一項技術方向就是如何能夠使他們的數據中心能耗降低,成本降低』
早在7年前,作為全球EDA《電子設計自動化》和半導體IP領域龍頭的新思科技就啟動了一項叫做『高能效設計』的項目,將芯片的能效最大化。
這種能耗管理的邏輯是,數據中心有多塊芯片,每個芯片上有幾十億甚至上百億的晶體管,一個晶體管,相當於一個用電單位,以此推斷,一顆指甲蓋大小的芯片,就是一個規模龐大的能源網絡。
如果能夠將每個晶體管的能耗優化,那麼最後的節能就能輻射到整個數據中心。
一位資深分析師人士坦言,市場大可不必對大模型的能耗問題過度擔憂。
『很多人忽略了一個事實,那就是大模型對算力的需求未來必然會逐漸下降,這意味著能耗也會相應降低』例如,微軟剛剛宣佈開源的DeepSpeed-Chat就充分印證了這一點。
據了解,DeepSpeed-Chat是基於微軟DeepSpeed深度學習優化庫開發而成,具備訓練、強化推理等功能,並使用了RLHF《基於人類反饋的強化學習》技術,可將訓練速度提升15倍以上,算力成本大大降低。
比如,僅憑單個GPU就能支持一個130億參數的類ChatGPT模型,訓練時間也隻需要1.25小時。
與此同時,該分析師補充說,未來算力的分佈結構一定會朝著分佈式、去中心化的方式演進,即訓練過程在雲端完成,在邊緣和端側重推理。
『而不會像現在一樣,所有的壓力全部由超算中心承擔』