Ivan Goldwasser – NVIDIA 技術博客 http://www.open-lab.net/zh-cn/blog 閱讀開發者創建的最新技術信息、頭條新聞 和內容。 Wed, 04 Jun 2025 03:22:26 +0000 zh-CN hourly 1 196178272 借助 NVIDIA NVLink Fusion 將半定制計算平臺集成到機架級架構 http://www.open-lab.net/zh-cn/blog/integrating-custom-compute-into-rack-scale-architecture-with-nvidia-nvlink-fusion/ Sun, 18 May 2025 06:19:43 +0000 http://www.open-lab.net/zh-cn/blog/?p=13944 Continued]]> 為了高效應對 AI 工作負載,數據中心正在被重構。這是一項非常復雜的工作,因此,NVIDIA 目前正在交付以 NVIDIA 機架級架構為單位的 AI 工廠。為了讓 AI 工廠發揮最佳性能,許多加速器需要以更大的帶寬和更低的延遲在機架規模上協同工作,并以最節能的方式支持盡可能多的用戶。 設計滿足這些需求的機架會面臨許多技術挑戰。這需要高密度的加速器、網卡(NICs)、交換機以及縱向擴展和橫向擴展網絡,所有這些都緊密相關。這種高密配置對于提供當今 AI 所需的高級計算能力和背板帶寬至關重要。 傳統的風冷方法通常不足以滿足此類高密部署的需求,因此需要高密度液冷機架,例如 NVIDIA NVLink 高速縱向擴展互連技術。圖 1 說明了 NVLink 和更大的縱向擴展域如何提供最佳性能。NVIDIA 機架式擴展解決方案提供了一條經過驗證的可擴展路徑,通向更快速、更高效的基礎設施。

Source

]]>
13944
借助 NVIDIA MGX 為 AI 工廠奠定模塊化基礎 http://www.open-lab.net/zh-cn/blog/building-the-modular-foundation-for-ai-factories-with-nvidia-mgx/ Fri, 16 May 2025 06:57:05 +0000 http://www.open-lab.net/zh-cn/blog/?p=13968 Continued]]> 生成式 AI、 大語言模型 (LLMs) 和高性能計算的指數級增長給數據中心基礎設施帶來了前所未有的需求。傳統的服務器架構難以適應現代加速計算的功率密度、散熱要求和快速迭代周期。 本文將介紹 NVIDIA MGX 的優勢,這是一種用于加速計算的模塊化參考架構,正在重新定義企業和云提供商構建可擴展 AI 工廠的方式。 借助 NVIDIA MGX,合作伙伴可以使用構建塊方法設計多個系統,從而節省開發成本和上市時間。NVIDIA MGX 旨在支持多代產品,并支持適用于 AI、高性能計算 (HPC) 和 數字孿生 的數百種 GPU、DPU、CPU、存儲和網絡組合。 推動采用 NVIDIA MGX 的三大趨勢: 基于這些趨勢,標準化和穩定的架構 (如 MGX) 可確保可靠、兼容的服務器部署,在不犧牲互操作性的情況下支持不斷變化的性能需求。

Source

]]>
13968
在 NVIDIA Grace CPU 上使用 Polars 和 Apache Spark 實現高效 ETL http://www.open-lab.net/zh-cn/blog/efficient-etl-with-polars-and-apache-spark-on-nvidia-grace-cpu/ Tue, 11 Mar 2025 06:37:40 +0000 http://www.open-lab.net/zh-cn/blog/?p=13354 Continued]]> NVIDIA Grace CPU 超級芯片可為數據中心和云端的 CPU 工作負載提供出色的性能和出色的能效。NVIDIA Grace 的優勢包括高性能 Arm Neoverse V2 核心、NVIDIA 設計的快速可擴展一致性結構(Scalable Coherency Fabric)以及低功耗高帶寬 LPDDR5X 內存。 這些功能使 Grace CPU 成為處理 提取、加載、轉換 (ETL) 工作負載的理想選擇,展現出出色的性能。ETL 工作負載是在線分析處理 (OLAP) 和商業智能 (BI) 工作流的關鍵組成部分,使企業能夠獲得見解并改進組織決策制定。 本文介紹了 NVIDIA Grace CPU 如何提供解決方案,在不影響性能的情況下,在單節點 Polars 和多節點 Apache Spark 上運行 ETL 工作負載時降低功耗。

Source

]]>
13354
NVIDIA Grace CPU 與 Arm 軟件生態系統集成 http://www.open-lab.net/zh-cn/blog/nvidia-grace-cpu-integrates-with-the-arm-software-ecosystem/ Mon, 10 Feb 2025 03:24:16 +0000 http://www.open-lab.net/zh-cn/blog/?p=12850 Continued]]> NVIDIA Grace CPU 將節能高效的性能提升到了新的高度,正在改變數據中心的設計。Grace CPU 專為數據中心規模打造,旨在處理要求嚴苛的工作負載,同時降低功耗。 NVIDIA 相信利用 GPU 加速各種工作負載的好處。但是,并非所有工作負載都得到加速。對于涉及復雜的分支代碼 (例如圖形分析) 的工作負載尤其如此,這些代碼通常用于欺詐檢測、運營優化和社交網絡分析等熱門用例。 隨著數據中心面臨越來越大的功率限制,加速盡可能多的工作負載并在盡可能高效的計算上運行其余工作負載變得至關重要。Grace CPU 經過優化,可處理加速任務和僅使用 CPU 的任務,在功耗與傳統 CPU 相同的情況下提供高達 2 倍的性能。 Grace CPU 配備 72 個高性能、高能效的 Arm Neoverse V2 核心,

Source

]]>
12850
NVIDIA Grace CPU 實現全球頂級數據中心性能和突破性能效優勢 http://www.open-lab.net/zh-cn/blog/nvidia-grace-cpu-delivers-world-class-data-center-performance-and-breakthrough-energy-efficiency/ Wed, 09 Oct 2024 05:11:03 +0000 http://www.open-lab.net/zh-cn/blog/?p=11758 Continued]]> NVIDIA 將 NVIDIA Grace CPU 設計為一種新型高性能數據中心 CPU,旨在提供突破性的 能效 ,并針對數據中心規模的性能進行了優化。 與傳統 CPU 計算相比,加速計算在性能和能效方面實現了巨大的飛躍。為了實現這些加速,需要數據中心規模的全棧創新,涵蓋芯片、系統、軟件和算法。為適合的工作負載選擇合適的架構并提供出色的節能性能對于最大限度地提高數據中心的性能和最小化占用空間至關重要。 隨著工作負載的加速程度不斷提高,目前仍有一些用例主要在傳統 CPU 上運行,尤其是圖形分析等稀疏和“分支”序列化任務的代碼。與此同時,數據中心受到越來越多的電力限制,限制了其能力的增長。這意味著所有可以加速的工作負載都應該加速。那些無法加速的工作負載必須在盡可能高效的計算上運行,而 CPU 必須針對這些工作負載進行優化。

Source

]]>
11758
聚焦:Petrobras 利用 NVIDIA Grace CPU 加速用于油藏模擬的線性求解器 http://www.open-lab.net/zh-cn/blog/spotlight-petrobras-accelerates-linear-solvers-for-reservoir-simulation-using-nvidia-grace-cpu/ Tue, 24 Sep 2024 07:10:21 +0000 http://www.open-lab.net/zh-cn/blog/?p=11359 Continued]]> 油藏模擬通過模擬復雜場景并與真實的現場數據進行比較,幫助油藏工程師優化資源勘探方法。這擴展到對枯竭油藏的模擬,這些油藏可以重新用于運營中的碳存儲。油藏模擬對于旨在提高勘探和生產運營效率的能源公司至關重要。 本文展示了 NVIDIA Grace CPU 如何出色地解決此工作流程中的線性系統問題,與基于 x86 的替代 CPU 相比,Petrobras 實現了高達 4.5 倍的解決方案速度、4.3 倍的 能效 和 1.5 倍的可擴展性。 Petrobras 是一家領先的巴西能源公司,在轉向新能源的同時保持其核心油氣(O&G)勘探和生產業務。根據 Top500 和 Green500 榜單,Petrobras 擁有拉丁美洲最大的 HPC 基礎設施,由 NVIDIA 全棧加速計算平臺提供支持。他們的主要工作負載是地震處理和油藏模擬。 該公司率先推出了超深海勘探作業,

Source

]]>
11359
借助 NVIDIA Grace 系列革新數據中心效率 http://www.open-lab.net/zh-cn/blog/revolutionizing-data-center-efficiency-with-the-nvidia-grace-family/ Fri, 02 Aug 2024 05:38:22 +0000 http://www.open-lab.net/zh-cn/blog/?p=10938 Continued]]> 到 2025 年,數據處理需求的指數級增長預計將達到 175 ZB。這與 CPU 性能提升的緩慢步伐形成了鮮明的對比。十多年來,半導體的進步跟不上摩爾定律預測的步伐,因此迫切需要更高效的計算解決方案。 NVIDIA GPU 已經成為滿足這些不斷增長的計算需求的最高效方式。其處理復雜任務和并行處理工作負載的能力使其能夠最大限度地提高每單位能耗所完成的工作,使其能效比傳統 CPU 高 20 倍,適用于各種數據中心工作負載,包括人工智能、高性能計算 (HPC)、數據處理以及視頻和圖像處理。 隨著越來越多的應用程序得到加速,需要在 CPU 方面進行創新,以更大限度地提高數據中心的效率。加速計算需要從硬件到軟件、平臺和跨多個領域的應用程序的全棧創新,以充分發揮數據中心的潛力。 NVIDIA 始終如一地提供突破性的 GPU 和網絡。但是,盡管 GPU 在并行工作負載方面表現優異,

Source

]]>
10938
NVIDIA GB200 NVL72 提供萬億參數 LLM 訓練和實時推理 http://www.open-lab.net/zh-cn/blog/nvidia-gb200-nvl72-delivers-trillion-parameter-llm-training-and-real-time-inference/ Mon, 18 Mar 2024 07:00:33 +0000 http://www.open-lab.net/zh-cn/blog/?p=9393 Continued]]> 對萬億參數模型的興趣是什么?我們知道當今的許多用例,并且由于有望提高以下方面的能力,人們的興趣正在增加: 其優勢是巨大的,但訓練和部署大型模型的計算成本高昂且需要大量資源。旨在提供實時推理的計算高效、經濟高效且節能的系統對于廣泛部署至關重要。新的 NVIDIA GB200 NVL72 就是這樣一個系統,可以完成這項任務。 為了說明這一點,我們考慮一下多專家模型 (MoE).這些模型有助于在多個專家之間分配計算負載,并使用模型并行和管道并行跨數千個 GPU 進行訓練。提高系統效率。 然而,并行計算、高速顯存和高性能通信的新水平可以使 GPU 集群能夠應對棘手的技術挑戰。 NVIDIA GB200 NVL72 機架級架構實現了這一目標,我們將在以下博文中詳細介紹。 核心 GB200 NVL72 是 NVIDIA GB200 Grace Blackwell 超級芯片。

Source

]]>
9393
人人超碰97caoporen国产