訓練 AI 模型

2025年 2月 5日
NVIDIA Blackwell 上的 OpenAI Triton 提升 AI 性能和可編程性
矩陣乘法和注意力機制是現代 AI 工作負載的計算支柱。雖然庫如 NVIDIA cuDNN 提供高度優化的實現,
2 MIN READ

2024年 11月 22日
Hymba 混合頭架構提高小型語言模型性能
Transformer 及其基于注意力的架構,憑借強大的性能、并行化功能以及通過鍵值 (KV) 緩存進行的長期召回,已成為語言模型 (LM)…
5 MIN READ

2024年 11月 13日
NVIDIA Blackwell 在 MLPerf 訓練 v4.1 中將 LLM 訓練性能提高一倍
隨著模型規模的擴大以及使用更多數據進行訓練,它們的能力也隨之提升,實用性也隨之提升。為了快速訓練這些模型,需要在數據中心規模上提供更高的性能。
3 MIN READ

2024年 8月 15日
NVIDIA TensorRT 模型優化器 v0.15 提高推理性能擴展模型支持能力
NVIDIA 宣布推出新版 v0.15 NVIDIA TensorRT 模型優化器,這是一種先進的模型優化技術量化工具包,包含量化、
2 MIN READ

2024年 7月 17日
NVIDIA NeMo 借助混合狀態空間模型加速 LLM 創新發展
當今的大型語言模型(LLM)基于 2017 年推出的 Transformer 模型架構。自那時以來,
2 MIN READ

2024年 7月 10日
了解 Stable Diffusion 模型:面向 AEC 專業人員的基本指南
生成式 AI、算法處理各種類型的輸入—例如文本、圖像、音頻、視頻和代碼—并生成新內容的能力正在以前所未有的速度發展。
2 MIN READ

2024年 6月 12日
NVIDIA 在 MLPerf Training v4.0 中創造了新的生成式 AI 性能和規模記錄
生成式 AI 模型具有多種用途,例如幫助編寫計算機代碼、創作故事、作曲、生成圖像、制作視頻等。而且,隨著這些模型的大小不斷增加,
3 MIN READ

2024年 5月 3日
視覺語言智能與 Edge AI 2.0
VILA 是 NVIDIA Research 和麻省理工學院共同開發的一系列高性能視覺語言模型。這些模型的參數規模從 ~3B 到 ~40B…
3 MIN READ

2024年 4月 23日
借助 Union.ai 和 NVIDIA DGX 云實現 AI 工作流程的大眾化
GPU 最初專用于在電子游戲中渲染 3D 圖形,主要用于加速線性代數計算。如今,GPU 已成為 AI 革命的關鍵組成部分之一。 現在,
2 MIN READ

2024年 3月 21日
重新思考如何訓練 Diffusion 模型
在探索了擴散模型采樣、參數化和訓練的基礎知識之后,我們的團隊開始研究這些網絡架構的內部結構。請參考 生成式 AI 研究聚焦:
2 MIN READ