2025年3月12日(優分析產業數據中心)
根據兩位消息人士透露,Meta Platforms(META-US)正在測試首款自研人工智慧(AI)訓練晶片,這標誌著該公司在降低對輝達(Nvidia)等外部供應商依賴的一大步。
這家全球最大的社群媒體公司已經開始小規模測試,如果結果良好,將進一步擴大生產。Meta 開發自家晶片的目標是降低龐大的基礎設施成本,因為它正在大舉投資 AI 技術,以推動業務成長。
花了多少錢在 AI 上?
Meta 旗下擁有 Facebook、Instagram 和 WhatsApp 等社群平台,每天超過 30億人使用。為了讓 AI 能有效運作,公司需要大量運算資源,而這些資源的成本非常驚人。
Meta 預測,2025年總支出將達到 1140億到 1190億美元,其中高達 650億美元用於 AI 基礎設施支出。
消息人士指出,Meta 這款的訓練晶片是一種專用加速器,專門負責特定的 AI 任務,不像一般的圖形處理單元(GPU)適用於各種計算,這樣的設計讓它在執行 AI 訓練時更省電、效率更高。此外,Meta 正在與台積電合作生產這款晶片。
專用加速器:指的是針對特定任務設計的特殊處理器,它不像一般的中央處理器(CPU)或圖形處理單元(GPU)那樣適用於各種類型的計算,而是專門優化某些運算,使其執行效率更高、能耗更低。
做晶片的挑戰
根據消息來源,這次的測試是在 Meta 完成首次流片(tape-out)後進行的,這是晶片開發中的關鍵階段,代表設計定案並送交晶圓廠試產,這個過程通常要花上千萬美元,還要3到6個月才能知道結果,而且沒有保證一定會成功。如果測試失敗,Meta 就得重新找出問題並再來一次,進一步拉長開發週期與成本支出。
目前,Meta 和台積電都沒有對此發表評論。
之前的 AI 晶片計畫順利嗎?
去年,Meta 開始使用一款推理(Inference)晶片,當用戶與 AI 互動時,系統即時運算出結果。這款晶片主要應用在推薦系統,決定 Facebook 和 Instagram 動態消息中要顯示哪些內容給用戶。
Meta 計劃 2026年開始用自己的晶片來訓練 AI。和推理晶片一樣,這款訓練晶片應用在推薦系統,未來還會擴展到像聊天機器人 Meta AI 這類的生成式AI(Gen AI)產品。
產品長Chris Cox表示:「我們現在還在走、爬、跑的發展階段,但第一代推理晶片已經算是很大的成功。」
自研 AI 晶片受挫轉投 Nvidia,GPU 市場價值正面臨挑戰
另外,Meta 之前曾經嘗試開發自家的 AI 推理晶片,但小規模測試失敗,最後只好放棄,轉而在 2022年向 Nvidia 採購了數十億美元的 GPU。從那時起,Meta 一直是 Nvidia 的大客戶,大量使用 GPU 來訓練 AI 模型,包含推薦系統、廣告運算,以及 Llama 基礎模型系列。
但今年以來,Nvidia 的 GPU 價值受到挑戰。AI 研究人員開始質疑,單純靠增加數據和運算能力來提升 AI 的效果,真的還能持續進步嗎?
尤其是在1月底,中國 AI 新創公司 DeepSeek 推出更省錢、高效的 AI 模型,透過更精簡的計算方式達到類似效果。這導致投資人開始重新評估 Nvidia 的價值,一度引發 AI 概念股大跌,Nvidia 股價甚至一度下滑 20%,雖然後來回升,但仍受到市場不確定因素影響。