avater
優分析.2024.08.29

【Part 2:分析師提問篇】NVIDIA Corporation 第二季度2025年電話會議記錄

圖片來源:美聯社AP/TPG

主持人(發言人1): 謝謝。您的第一個問題來自美國銀行證券的Vivek Arya先生。您的線路已經打開。

Vivek Arya(分析師): 感謝您接聽我的問題。黃仁勳,您在事先準備的評論中提到Blackwell GPU光罩(Mask)的變更。我很好奇,是否還有其他增量變更,例如後端封裝或其他方面?而我想關聯地問,您表示儘管設計有所改變,但仍可以在第四季度出貨數十億美元的Blackwell。這是因為這些問題都已解決嗎?另外,這些變更會對Blackwell的整體上市時間和客戶反應造成什麼影響?

黃仁勳(發言人5): 是的,謝謝,Vivek。光罩(Mask)的變更已經完成,沒有必要進行功能更改。因此,我們目前正在對Blackwell、Grace Blackwell進行各種系統配置的功能性取樣。在Computex上展示了大約100種不同類型的基於Blackwell的系統,我們正在使我們的生態系統開始取樣這些系統。Blackwell的功能性一切如常,我們預計將在第四季度開始生產。

主持人(發言人1): 下一個問題來自高盛的Toshiya Hari。您的線路已經打開。

Toshiya Hari(分析師): 嗨,謝謝您回答我的問題。黃仁勳,我有一個相對長期的問題。正如您所知,市場上對您的客戶和客戶的客戶的投資回報率(ROI)以及這對未來資本支出(CapEx)可持續性的影響存在激烈的辯論。在NVIDIA內部,您在監看什麼?在評估客戶回報及其對CapEx的影響時,您的儀表盤上有什麼?

Toshiya Hari(分析師): 然後有一個快速的後續問題可能是給Colette的。我認為您對於全年主權AI的預測增加了幾十億美元,這是什麼驅動了這個更好的預期?我們應該如何看待2026財年?

黃仁勳(發言人5): 謝謝,Toshiya。首先,當我說第四季度的生產時,我的意思是發貨,而不是開始生產。在您的長期問題上,我們可以退一步來看。您聽過我說,我們正在同時進行兩個平台轉型。

黃仁勳(發言人5): 第一個是從加速計算轉向通用計算。原因是因為CPU的擴展已經顯示出正在放緩,而且事實上已經放緩到爬行的速度。然而,計算需求的增長非常顯著,甚至可以估計它每年翻倍。因此,如果我們不採用新的方法,計算通脹將推動每家公司的成本上升,並增加全球數據中心的能源消耗。

黃仁勳(發言人5): 事實上,您可以看到這一點。因此,答案是加速計算。我們知道加速計算當然能加速應用,它還使您能夠在更大規模上進行計算,例如科學模擬或數據庫處理。但這直接轉化為更低的成本和更少的能源消耗。

黃仁勳(發言人5): 事實上,本周有一篇博客文章談到了我們提供的一大批新庫。這實際上是第一個平台轉型的核心,從通用計算轉向加速計算。看到有人節省90%的計算成本並不罕見。原因當然是您剛剛將一個應用加速了50倍,您會預期計算成本會大幅下降。第二個是由加速計算推動的,因為我們將大型語言模型或深度學習訓練的成本降低到了令人難以置信的地步,因此現在可以在幾乎所有知識體系上進行大規模模型的預訓練,並讓模型自行學習如何理解人類語言表示,如何將知識編碼到其神經網路中,以及如何學習推理。

黃仁勳(發言人5): 這引發了生成式AI的革命。現在生成式AI,回過頭來說,為什麼我們如此深入地涉足它,是因為這不僅僅是一個特性或能力,而是一種根本性的軟件新方法。取代人類工程的算法,我們現在有了數據。我們告訴AI模型,我們告訴電腦什麼是預期的答案,什麼是我們以前的觀察,然後讓它自己去找出算法是什麼。

(以下內容,討論生成式AI的應用和市場策略等話題。)


黃仁勳(發言人5): 我們可以把AI看作是一個通用的函數逼近器,它學習函數。因此,您可以學習幾乎任何事物的函數,特別是那些可以預測、有結構、有先例的事物。現在,我們擁有生成式AI,這是一種根本性的新計算科學形式。它改變了計算的每一層,從CPU到GPU,從人類工程的算法到機器學習的算法,可以開發和生產的應用類型也變得非常顯著。生成式AI的發展方向有幾個。

黃仁勳(發言人5): 首先是前沿模型的規模在顯著增加,我們仍然可以看到擴展的好處。每當您將模型的大小加倍時,您還需要更多的數據來訓練它。因此,構建該模型所需的浮點運算量成倍增加。預期下一代模型將比上一代模型需要多10到40倍的計算量。因此,我們必須繼續顯著提高性能,以便降低能耗並降低實施成本。

黃仁勳(發言人5): 首先有更大的前沿模型,它們用更多的模態進行訓練,而且令人驚訝的是,今年的前沿模型製造者比去年更多。所以您有“更多上的更多”。這是生成式AI中的一個動態。其次,雖然這些只是冰山一角,但我們看到的如ChatGPT、圖像生成器、代碼生成器,我們在NVIDIA內部大量使用生成式AI進行編碼。

黃仁勳(發言人5): 我們當然有很多數字設計師等等,但這些只是冰山一角。真正隱藏在水面下的是今天最大的計算系統,您以前聽我談過,它們是推薦系統,這些系統正在從CPU轉向生成式AI。推薦系統、廣告生成、針對大規模的精確廣告投放、搜索和用戶生成內容。

黃仁勳(發言人5): 這些都是非常大規模的應用,現在已經進化到生成式AI。當然,生成式AI初創公司正為我們的雲合作夥伴創造數百億美元的雲租賃機會。主權AI,國家現在意識到他們的數據是他們的自然和國家資源,他們必須建立自己的AI基礎設施,這樣他們就可以擁有自己的數字智能。企業AI,正如Colette早前提到的,也已經開始了。

黃仁勳(發言人5): 您可能看到我們的公告,世界領先的IT公司正在加入我們的行列,將NVIDIA AI企業平台帶給全球企業。我們正在談論的這些公司中,有許多公司非常熱衷於提高他們的生產力。然後是通用機器人技術的全面轉型。去年,我們能夠通過視頻觀看、人類示範和強化學習生成的合成數據學習物理AI。

黃仁勳(發言人5): 我們現在能夠與幾乎每家機器人公司合作,開始考慮和建設通用機器人。因此,您可以看到,生成式AI正在朝著許多不同的方向發展,我們實際上看到生成式AI的動能在加速。

Colette Kress(發言人3): Toshiya,關於您的問題,涉及主權AI和我們的增長目標和收入,這當然是一個獨特且不斷增長的機會,這是生成式AI帶來的,世界各國希望擁有自己的生成式AI,這些AI能夠結合他們自己的語言、文化和國家數據。因此,對這些模型的興奮程度不斷增加,我們看到未來有更多的增長機會。

主持人(發言人1): 下一個問題來自摩根士丹利的Joe Moore。您的線路已經打開。

Joe Moore(分析師): 謝謝。黃仁勳,您在新聞稿中提到了對Blackwell的極大期待,但似乎Hopper的需求也非常強勁。您對於10月沒有Blackwell的情況下能實現非常強的季度表現持樂觀態度。

Joe Moore(分析師): 那麼,您如何看待對兩者的需求共存的狀況?能否談談向Blackwell的過渡?您是否認為人們會混合使用這些集群?還是您認為大多數Blackwell活動都是新集群?請提供一些有關這種轉變的情況。

黃仁勳(發言人5): 是的,謝謝,Joe。Hopper的需求確實非常強勁,而Blackwell的需求也確實是“不可思議”。這其中有幾個原因。

黃仁勳(發言人5): 第一個原因是,如果您僅僅看看全球的雲服務提供商(CSPs)和他們擁有的GPU容量,基本上是空的。這是因為它們要麼被內部部署用於加速自身工作負載的數據處理,要麼被租賃給模型製造商和初創公司進行使用。生成式AI公司把絕大部分投資資本投入到基礎設施中,以便使用AI幫助他們創建產品,而這些公司現在就需要GPU。

(後續內容繼續討論對Hopper和Blackwell需求的深入分析,及其在生成式AI領域的應用及市場動態。)


黃仁勳(發言人5): 雲服務提供商的內部工作負載,特別是數據處理工作負載,需要大量GPU加速,而NVIDIA的GPU是唯一能夠加速這些數據處理的設備。SQL數據、Pandas數據、數據科學工具包等,例如Pandas和新出現的Polars,是全球最受歡迎的數據處理平台。除了CPU之外(正如我之前提到的,它們的性能已經幾乎達到極限),NVIDIA的加速計算是唯一能夠顯著提高性能的方法。

黃仁勳(發言人5): 這是主要原因之一——長期以來,在生成式AI出現之前,加速計算的應用一個接一個地遷移。第二個原因是租賃,租賃GPU計算能力給模型製造商和初創公司,這些公司為了創造產品,需要立即使用AI。他們不能等待明年,需要立刻開始,因此這帶來了相當大的需求。

黃仁勳(發言人5): 另一個原因是Hopper需求強勁,是因為競爭者之間都在爭奪下一個技術高地。首先達到新的技術高地的公司能夠引入一個革命性的新AI技術,第二家達到相同高度的公司只能做出略有改進或相似的產品。因此,系統性和一致地達到下一個技術高地,並成為首家達到的公司,是建立市場領導地位的方式。NVIDIA始終致力於這一目標,我們通過製造世界領先的GPU、AI工廠、網路系統和SoCs來展示我們的技術能力。

黃仁勳(發言人5): 我們希望設立技術標杆,一直成為世界上最好的,這就是為什麼我們如此努力地推動自己。當然,我們也希望看到我們的夢想成真,看到未來所能想像的能力和我們能為社會帶來的利益都實現。因此,這些模型製造商也是一樣。他們想成為世界上最好的,他們想成為世界上第一。

黃仁勳(發言人5): 儘管Blackwell今年底將以數十億美元的規模開始出貨,但容量的建立可能還需要幾周或幾個月的時間。因此,現在和那時之間的生成式AI市場動態非常活躍。

黃仁勳(發言人5): 因此,大家都非常急切。無論是出於操作需要還是為了提升運算能力,他們需要加速計算,不想再建立更多的通用計算基礎設施。而且即使是Hopper,H200也是目前最先進的。如果您現在需要為業務構建基礎設施,在CPU基礎設施和Hopper基礎設施之間做選擇,那麼這個決策就非常明顯了。

黃仁勳(發言人5): 所以我認為人們都迫切希望將已建立的數萬億美元基礎設施轉型為現代化的加速計算基礎設施,而Hopper就是當前的最先進技術。

主持人(發言人1): 下一個問題來自TD Cowen的Matt Ramsay。您的線路已經打開。

Matt Ramsay(分析師): 非常感謝。下午好,大家好。黃仁勳,我想回到早前有關投資者對所有這些資本支出的投資回報(ROI)問題的討論。希望我的問題能有所區分。我正在討論的是,有多少公司正試圖推動人工通用智能(AGI)收斂的最前沿?

Matt Ramsay(分析師): 他們不惜一切代價地投入,因為這能開啟行業和公司的眾多機遇。相對而言,有多少公司更關注CapEx與ROI之間的關係?我不確定這種區分是否合適,但我想知道您如何看待這些投入新技術的公司的優先事項及其時間框架?謝謝。

黃仁勳(發言人5): 謝謝,Matt。那些投資於NVIDIA基礎設施的公司立刻就能獲得回報。這是當今最好的投資回報率(ROI)計算基礎設施投資。所以思考這一點的一個最簡單方法就是回到第一原則。您擁有1萬億美元的通用計算基礎設施,問題是您是否希望再建更多這樣的基礎設施?

黃仁勳(發言人5): 因為如果您要建造1萬億美元的通用CPU基礎設施,您可能會以低於1萬億美元的價格出租它。因為它已經是商品化的,現有的1萬億美元基礎設施已經在那裡了,再建更多的意義何在呢?因此,對於那些急切地想獲得這些基礎設施的公司來說,當他們建造基於Hopper的基礎設施(很快是基於Blackwell的基礎設施)時,他們就開始節省資金,這是一個非常高的投資回報率。

黃仁勳(發言人5): 節省資金的原因在於數據處理已經是很大的一部分。推薦系統節省資金,等等。所以您會開始節省資金。其次,所有您部署的基礎設施都會被租用,因為許多公司正在創建生成式AI,因此您的容量會立即被租用,回報率非常好。

黃仁勳(發言人5): 第三,您自己的業務是否希望創建下一代前沿技術?您的互聯網服務是否能受益於下一代廣告系統、推薦系統或搜索系統?所以無論是為了自己的服務、商店還是社交媒體平台,生成式AI都是一個快速的投資回報。

黃仁勳(發言人5): 所以,有很多方法可以考慮這個問題。但核心在於,這是您今天可以投入的最好的計算基礎設施。通用計算的世界正在向加速計算轉變,人類工程的軟件正在向生成式AI軟件轉變。如果您想要現代化您的雲端和數據中心,請使用NVIDIA的加速計算基礎設施。

黃仁勳(發言人5): 這是最好的方式。

(後續內容仍然包含更多問答和公司策略的討論,涵蓋資本支出、技術進步、業務增長預期等方面。)


主持人(發言人1): 下一個問題來自UBS的Timothy Arcuri。您的線路已經打開。

Timothy Arcuri(分析師): 謝謝。我有一個關於收入增長形態的問題,既涉及短期,也涉及長期。我知道Colette提到了今年的運營支出(OpEx)有所增加,如果我看一下您的採購承諾和供應義務的增長,這也表明了非常積極的態度。但另一方面,有人認為不是很多客戶真的準備好了採用液冷系統,我認識到有些機架可以使用空冷,但Jensen,這是否值得考慮?這會影響到Blackwell的增長方式嗎?

Timothy Arcuri(分析師): 然後如果我們看明年,這無疑將是非常好的一年,但如果我們展望到2026年,您會擔心其他限制因素嗎,比如電源供應鏈,或者模型是否會變小?我只是想知道您如何看待這些影響因素。謝謝。

黃仁勳(發言人5): 我將從後往前回答這些問題。非常感謝您的問題,Tim。請記住,世界正在從通用計算轉向加速計算。全球每年建設約1萬億美元的數據中心,幾年後,所有這些數據中心都將被加速計算所取代。過去,數據中心裡幾乎沒有GPU,只有CPU。

黃仁勳(發言人5): 未來,每個數據中心都會有GPU。原因非常明顯,我們需要加速工作負載,這樣我們才能繼續可持續發展,繼續降低計算成本,這樣當我們進行更多計算時,我們不會遇到計算通脹。第二,我們需要GPU來實現一種新的計算模式——生成式AI,我們都承認這將對未來的計算產生深遠影響。所以倒過來思考,下一批1萬億美元的全球基礎設施顯然與上一批不同,而且會大幅加速。

黃仁勳(發言人5): 關於Blackwell增長形態的問題,我們提供了多種Blackwell配置。Blackwell有一個經典版本(Classic),如果你願意這樣稱呼它的話,使用的是我們在Volta時代就開創的HGX形式架構。我想應該是Volta。因此,我們已經在HGX形式架構上運行了很長時間了,它是空冷的。而Grace Blackwell則是液冷的。

黃仁勳(發言人5): 但是,想要轉向液冷數據中心的數據中心數量相當可觀。原因在於,在液冷數據中心中,在任何功率受限的數據中心內,無論您選擇的數據中心大小如何,您都可以部署比以前高出3到5倍的AI吞吐量。因此,液冷成本更低,總擁有成本(TCO)更優,液冷還可以讓您享受NVLink的這種優勢,我們可以將其擴展到72個Grace Blackwell封裝,這實際上包含144個GPU。因此,想像一下144個GPU在NVLink中相連,我們正越來越多地向您展示它的優勢,而下一步顯然是非常低延遲、非常高吞吐量的大型語言模型推理,而大型NVLink域在這方面將成為一個改變遊戲規則的因素。因此,我認為人們對於部署這兩者感到非常舒適。

黃仁勳(發言人5): 幾乎我們合作的每個CSP都在同時部署這兩者。因此,我對我們的增長形態會非常順利充滿信心。您的第二個問題是關於展望未來,是的,明年將是個好年頭。我們預計明年數據中心業務將大幅增長。Blackwell將成為行業的顛覆者。

黃仁勳(發言人5): Blackwell將延續到下一年。正如我之前提到的,從第一原則開始思考,請記住,計算正同時經歷兩個平台轉型,這非常重要。

主持人(發言人1): 下一個問題來自Bernstein Research的Stacy Rasgon。您的線路已經打開。

Stacy Rasgon(分析師): 你好,大家好。謝謝回答我的問題。我有兩個簡短的問題要問Colette。第一,您提到第四季度Blackwell的收入將達到數十億美元,這是額外的嗎?您提到Hopper的需求在下半年會增加,這是否意味著Hopper從第三季度到第四季度也會增強,除此之外Blackwell還會增加數十億美元?

Stacy Rasgon(分析師): 第二個問題是關於毛利率,如果我對全年毛利率預測約為75%,那麼第四季度毛利率可能在71%到72%之間。這是您預期的毛利率走向嗎?以及Blackwell爬坡到明年,毛利率的演變該怎麼考慮?

Colette Kress(發言人3): Stacy,首先回應您的問題關於Hopper和Blackwell。因此,我們相信Hopper在下半年將繼續增長。我們認為很多Hopper的現有產品將在接下來的季度(包括第三季度)繼續上升,包括一些新產品到第四季度。因此,相對於上半年,Hopper會有一個增長機會。

Colette Kress(發言人3): 此外,Blackwell也將在這基礎上進行第四季度的爬坡。希望這能回答您的兩個問題。關於您的第二個問題,是關於我們的毛利率。我們提供了第三季度的毛利率指引。

Colette Kress(發言人3): 我們提供的非GAAP毛利率大約為75%。我們將處理所有我們正在進行的轉型,但我們相信我們可以在第三季度實現75%的目標。我們提供的全年指引也是中位數70%的水平,大約75%左右。因此,考慮到我們的轉型和新產品引入的不同成本結構,第四季度可能會有一些小的變化。然而,我並不認同您那裡的數字。

Colette Kress(發言人3): 我們目前沒有確切的指引,但我認為您那個數字比我們的估計要低。

(後續問答環節繼續深入討論各種市場預測、技術演進、客戶需求和NVIDIA的戰略。)


主持人(發言人1): 下一個問題來自Melius的Ben Reitzes。您的線路已經打開。

Ben Reitzes(分析師): 是的,謝謝你們的問題,Jensen和Colette。我想問一下關於地理區域的問題。根據10-Q的披露,美國的收入環比下降,而幾個亞洲地區的收入環比大幅增長。想知道這裡的動態是什麼?

Ben Reitzes(分析師): 顯然,中國的表現非常好,您在講話中也提到過這一點,有什麼推動力和抑制力?我還想確認一下Stacy的問題,這是否意味著公司整體收入在第四季度的環比增長加速,考慮到所有這些有利的收入動態?謝謝。

Colette Kress(發言人3): 讓我談談我們在10-Q中的披露,我們選擇的地理區域披露可能會有點挑戰。這是因為我們必須選擇一個核心部分來展示。我們有我們的銷售對象,或者更具體地說,我們的開票對象。因此,您在這裡看到的是我們的開票地點,而這不一定是產品的最終位置,或者甚至不一定是最終客戶所在的位置。

Colette Kress(發言人3): 這些產品主要是發往我們的OEM、ODM和系統集成商,並涵蓋我們的整個產品組合。因此,有時候您會看到這種變化,這只是他們在完成最終配置之前,使用的集成商發生了變化。但確實,我們在中國的開票數字包括了遊戲、數據中心和汽車業務的所有收入。

Colette Kress(發言人3): 回到您關於毛利率和Hopper及Blackwell的問題。Hopper將在下半年繼續增長,並將在我們目前的基礎上繼續增長。預測每個季度的具體組合情況,我們還沒有在此進行指導,但我們現在確實看到需求預期和能見度,這將是第四季度的一個增長機會。

Colette Kress(發言人3): 另外,我們會有我們的Blackwell架構。

主持人(發言人1): 下一個問題來自Cantor Fitzgerald的C.J. Muse。您的線路已經打開。

C.J. Muse(分析師): 是的,下午好,謝謝回答這個問題。您已經開始了一個令人矚目的年度產品節奏,考慮到未來挑戰可能會越來越大,尤其是隨著複雜性的增加和高階封裝技術的發展。所以我很好奇,從更高層次來看,這一背景如何改變您對於更大程度的垂直整合、供應鏈合作夥伴關係的思考?以及這對您的利潤率狀況有什麼影響?

黃仁勳(發言人5): 是的,謝謝。讓我看看,回答您的第一個問題,為什麼我們的速度這麼快,原因之一是模型的複雜性不斷增加,我們希望繼續降低其成本。同時,模型的規模不斷增加,我們相信繼續擴展AI模型將能達到極其有用的水平,這會開啟下一個工業革命。

黃仁勳(發言人5): 我們相信這一點。所以我們會非常努力地繼續提升其規模。我們相當獨特地擁有設計AI工廠的能力,因為我們擁有所有零部件。如果您沒有所有的零部件,就無法每年設計一個新的AI工廠。我們明年將交付比以往更多的CPU,更多的GPU,還有NVLink交換機、CX DPU、連接X EPU等。

黃仁勳(發言人5): 因此,我們能夠組建這一切,我們有一個統一的架構堆棧,使得我們能夠快速將新功能推向市場。否則,這些零部件需要被送往客戶進行組裝,然後還要搭建AI工廠,而AI工廠需要大量軟件來運行。關於誰進行整合的問題,我們希望我們的供應鏈是分散的,這樣我們可以服務於富士康、HP、戴爾、聯想、超微等。

黃仁勳(發言人5): 因此,我們有大量的合作夥伴,使得我們的架構能夠為全球的雲服務提供商、企業數據中心提供定制集成。這部分我們不希望做,我們也不擅長做。但我們知道如何設計AI基礎設施,以客戶喜歡的方式提供它,並讓生態系統來進行集成。

主持人(發言人1): 最後一個問題來自Wells Fargo的Aaron Rakers。您的線路已經打開。

Aaron Rakers(分析師): 是的,謝謝回答這個問題。我想回到關於Blackwell產品周期的問題。一個常見的問題是,您如何看待機架級系統的組合動態?您如何看待GB NVL 72和Blackwell產品周期的市場動態?

黃仁勳(發言人5): 是的,Aaron,謝謝。Blackwell機架系統被設計為一個機架,但我們以解耦的系統組件形式銷售。我們不賣整個機架,原因是每個人的機架都有些不同。

黃仁勳(發言人5): 有些是OCP標準,有些不是,有些是企業型的。每個人的電源限制也不同,選擇的CDU(冷卻分佈單元)、電源匯流條以及數據中心的集成方式都不同。因此,我們的設計方式是,我們設計整個機架,軟件可以在整個機架上完美運行,然後我們提供系統組件,比如說CPU和GPU計算板卡,這些板卡集成到一個MGX(模塊化系統架構)中。

黃仁勳(發言人5): 我們的MGX合作夥伴遍佈全球,提供定制配置並在靠近數據中心的位置進行整合和組裝。這是因為整個機架相當重,必須在靠近數據中心的位置進行集成。

黃仁勳(發言人5): 我們不希望做整合商。我們想成為技術提供商。

主持人(發言人1): 現在我將把電話交還給黃仁勳進行結束發言。

黃仁勳(發言人5): 謝謝。讓我再重申一些我之前提到的內容。全球的數據中心正在全面加速現代化,轉向加速計算和生成式AI。Hopper的需求依然強勁,而對Blackwell的期待非常高。

以下由黃仁勳做一次總結。


黃仁勳(發言人5): 讓我重點介紹一下公司的五大重點事項:

  1. 加速計算已經到達臨界點。 隨著CPU擴展放緩,開發者必須盡可能地加速所有工作負載。加速計算始於CUDA X庫。新的庫打開了NVIDIA的新市場。我們釋放了許多新庫,包括用於加速Polars、Pandas和Spark的CUDA,這些是領先的數據科學和數據處理庫;用於向量數據庫的cuVS,目前這非常火熱;用於5G無線基站的Ariel和Shionna;以及Parabricks基因測序和AlphaFold2蛋白質結構預測的新功能,都已經被CUDA加速。我們正處於將1萬億美元的數據中心從通用計算轉向加速計算的旅程的開始。這是第一點。

  2. Blackwell代表著一次重大飛躍。 Blackwell是一個AI基礎設施平台,不僅僅是一個GPU。它的名字雖然也是我們GPU的名字,但它是一個AI基礎設施平台。隨著我們向合作夥伴和客戶展示更多Blackwell的功能,Blackwell的領先程度變得非常明顯。Blackwell的願景花了將近5年和7個獨特的晶片來實現,包括Grace CPU、Blackwell雙GPU共封裝、ConnectX DPU處理東西向流量、BlueField DPU處理南北向和存儲流量、NVLink交換機進行所有GPU間通信,以及Quantum和SpectrumX,用於支持AI的大規模流量。Blackwell AI工廠是建築物級的計算機。

黃仁勳(發言人5): NVIDIA設計並優化了Blackwell平台,從端到端全堆疊,包括晶片、系統、網路,甚至包括結構化電纜、電源和冷卻,以及大量軟件,使得客戶可以快速建立AI工廠。這些基礎設施的資本密集度很高,客戶希望一旦拿到設備就能立即部署,並提供最佳性能和總擁有成本(TCO)。Blackwell在功率受限的數據中心內提供的AI吞吐量比Hopper多3到5倍。

  1. NVLink是一個非常重要的創新,配備了全到全GPU交換機,具有顛覆性。 Blackwell系統允許我們將144個GPU連接在一起,形成72個GB200封裝,進入一個NVLink域,總NVLink帶寬達到259 TB/s,這比Hopper提高了大約10倍。這非常合理,因為您需要提升多兆參數模型的訓練,並在數萬億個標記上進行預訓練。這些自然需要在GPU之間移動大量數據。對於推理來說,NVLink對於大規模語言模型的低延遲、高吞吐量非常重要。

  2. 我們現在擁有三個網路平台:NVLink用於GPU規模擴展,Quantum InfiniBand用於超級計算和專用AI工廠,SpectrumX用於AI以太網。 NVIDIA的網路足跡比以前要大得多。生成式AI的動能在加速。前沿模型製造商競相將規模擴展到下一個AI高地,以提高模型的安全性和智能水平。我們還在擴展以理解更多模態,從文本、圖像和視頻到3D、物理學、化學和生物學。

  3. NVIDIA AI和NVIDIA Omniverse正在開創AI的下一個時代——通用機器人技術。 現在企業AI浪潮已經開始,我們準備幫助公司轉型他們的業務。NVIDIA AI企業平台包括NEEMO、NIMS、NIM Agent Blueprints和AI Foundry,這些都由我們的生態系統合作夥伴和世界領先的IT公司用來幫助客戶公司定制AI模型和構建專用AI應用。

黃仁勳(發言人5): 企業可以使用NVIDIA AI Enterprise運行時進行部署,每GPU每年4500美元的價格使得NVIDIA AI Enterprise在全球部署AI方光罩(Mask)有極高的價值。NVIDIA的軟件總可尋址市場(TAM)隨著CUDA兼容GPU安裝基數從100萬增加到幾千萬,這可能會非常可觀。正如Colette所提到的,NVIDIA軟件將在今年年底達到20億美元的年運行率。謝謝大家今天的參與。

主持人(發言人1): 女士們,先生們,今天的電話會議到此結束,感謝大家的參與。您可以現在掛斷電話。

想重看「公司管理階層對業績的簡報」請參考這一篇:【Part 1:公司報告業績】NVIDIA Corporation 第二季度2025年電話會議記錄
 
這篇文章對你來說實用嗎?
很實用!
還可以
有待加強...
標籤關鍵字
AI
AI伺服器