馬斯克買了10000個GPU,入局大模型。

  盡管提倡在整個行業范圍內停止人工智能訓練,但據報道,埃隆·馬斯克 (Elon Musk)已經在 Twitter 內啟動了一個重大的人工智能項目。

據Business Insider報道,該公司已經購買了大約 10,000 個 GPU,並從 DeepMind 招募了 AI 人才,用於涉及大型語言模型 (LLM) 的項目 。

  一位知情人士表示,馬斯克的 AI 項目仍處於初始階段。

然而,根據另一個人的說法,獲得大量額外的計算能力表明他致力於推進該項目。

同時,生成人工智能的確切目的尚不清楚,但潛在的應用包括改進搜索功能或生成有針對性的廣告內容。

  目前,尚不清楚 Twitter 采購了哪些具體硬件。

然而,據報道,盡管 Twitter 一直存在財務問題,但據報道 Twitter 在這些計算 GPU 上花費了數千萬美元,馬斯克將其描述為『不穩定的財務狀況』。

這些 GPU 預計將部署在 Twitter 剩餘的兩個數據中心之一,亞特蘭大是最有可能的目的地。

有趣的是,馬斯克在 12 月下旬關閉了 Twitter 在薩克拉門托的主要數據中心,這顯然降低了公司的計算能力。

  除了為其生成式 AI 項目購買 GPU 硬件外,Twitter 還在招聘更多的工程師。

今年早些時候,該公司從Alphabet 的子公司AI Research DeepMind招募了工程師 Igor Babuschkin 和 Manuel Kroiss。

至少從 2 月開始,馬斯克一直在積極尋找 AI 行業的人才,以與 OpenAI 的 ChatGPT 競爭。

  OpenAI使用Nvidia 的 A100 GPU 來訓練其 ChatGPT 機器人,並繼續使用這些機器來運行它。

到目前為止,Nvidia 已經推出了 A100 的後繼產品,其H100計算 GPU 在大約相同的功率下速度快了幾倍。

Twitter 可能會在其 AI 項目中使用 Nvidia 的 Hopper H100 或類似硬件,盡管我們在此進行推測。

考慮到該公司尚未確定其 AI 項目的用途,因此很難估計它可能需要多少個 Hopper GPU。

  通常Twitter 這樣的大公司購買硬件時,他們會以特價購買,因為他們采購了數千臺。

與此同時,如果單獨從 CDW 等零售商處購買,Nvidia 的 H100 主板單價可能超過 10,000 美元,由此可以看出該公司可能為其 AI 計劃在硬件上花費了多少。

  馬斯克買了10000個GPU,入局大模型。

  ChatGPT邁向商用,GPU需求上看3萬顆

  ChatGPT近期掀起雲端與AI產業話題,Microsoft、Google、百度等相繼推出基於生成式AI衍生的產品服務,根據集邦《TrendForce》最新報告「從AIGC看雲端AI應用趨勢與挑戰」,未來邁向商用將上看3萬顆;在此熱潮下, GPU及AI芯片相關供應鏈業者可望受惠。

  不過,集邦指出,市場普及度和產品服務的功能優化仍待考驗,且由於AI是以用戶體驗為核心,涉及個資及內容提供的正確性,因此下個發展階段或將還會面臨法規問題。

  TrendForce表示,生成式AI是透過GAN、CLIP、Transformer、Diffusion等演算法、預訓練模型、多模態等AI技術的整合,在既有數據或資料中尋找規律,並在資料匯整、社交互動、文案產出等領域帶出高效的內容產出,以及與用戶互動體驗。

現行市面上已有不少生成式AI之應用,較常見的產出類別包括文字、圖像、音樂、編碼等。

  集邦表示,數據、算力、算法是深耕生成式AI不可或缺的三大關鍵,且產品服務易做但優化困難,因此,握有相關資源的雲端大廠在發展上將更具優勢。

就廠商角度而言,由於ChatGPT等生成式AI聊天機器人不僅能與用戶自然對話,「類理解需求」的能力使其針對各式咨詢能進一步提供建議,加上使用搜尋引擎已相當普遍,因此透過強化搜尋引擎已是各雲端大廠的首要任務。

  據TrendForce調查,目前全球搜尋引擎市場以超過9成的Google引擎為首,Microsoft Bing僅占3%,短期間不致造成威脅,但隨著用戶擴大、數據回饋與模型優化的循環,是否會產生服務差異甚或搶占廣告商機,也是Google不得不預防的潛在風險。

  集邦表示,由於生成式AI必須投入巨量資料進行訓練,為縮短訓練就得采用大量高效能GPU。

以ChatGPT背後的GPT模型為例,其訓練參數從2018年約1.2億個到2020年已暴增至近1,800億個,估GPU需求量預估約2萬顆,未來邁向商用將上看3萬顆。

  集邦表示,生成式AI發展將成為趨勢,將帶動GPU需求顯著提升,連帶使相關供應鏈受惠,其中最大受益者是GPU芯片龍頭的英偉達《NVIDIA》,旗下可達到5 PetaFLOPS運算效能的DGX A100,幾乎是目前用於大規模資料分析、AI加速運算的首選;此外,尚有推出MI100、MI200、MI300系列芯片的超微《AMD》。