面向消費者互聯網的開發者資源
一個為消費者互聯網行業的開發者提供新聞和技術資源的中心。
消費者互聯網資源
推薦系統
NVIDIA Merlin
NVIDIA Merlin 是一種基于 GPU 的端到端推薦系統框架,可提供快速的特征工程和較高的訓練吞吐量,以加速深度學習推薦模型的實驗和生產再訓練。Merlin 還支持低延遲、高吞吐量和生產推理。
適用于推薦系統的 Merlin
對話式 AI 和自然語言處理
NVIDIA Riva
NVIDIA Riva 框架包括預訓練的對話式 AI 模型、工具和優化的端到端服務,可用于語音、視覺和自然語言理解 (NLU) 任務。除了 AI 服務之外,Riva 還可讓您同時融合視覺、音頻和其他傳感器輸入內容,以在虛擬助理、多用戶說話者分類和呼叫中心助理等應用領域中提供多用戶、多情景對話等功能。
適用于對話式 AI 和 NLU 的 Riva
NVIDIA NeMo
借助 NVIDIA NeMo?,研究人員和開發者可以通過易于使用的應用程序編程接口構建先進的對話式 AI 模型。
適用于對話式 AI 的 NeMo
圖像和視頻理解
NVIDIA Maxine
NVIDIA Maxine 是一款完全加速的平臺 SDK,供視頻會議服務開發者構建和部署支持 AI 的功能,以在云中使用先進模型。Maxine 包括用于 NVIDIA 研究推出的最新創新(例如面部對齊、注視校正、面部重新照明和實時翻譯,以及超分辨率、噪音消除、隱藏式字幕和虛擬助理等)的 API。
適用于視頻會議的 Maxine
NVIDIA DeepStream
使用 NVIDIA DeepStream SDK,您可以構建和部署支持 AI 的智能視頻分析 (IVA) 應用程序和服務。DeepStream 提供采用安全傳輸層協議 (TLS) 的多平臺可擴展框架,在邊緣進行部署以及連接到任何云。
適用于智能視頻分析的 DeepStream SDK
遷移學習工具包
NVIDIA 遷移學習工具包使您能夠為智能視頻分析 (IVA) 和計算機視覺應用程序創建準確高效的 AI 模型,而無需具備 AI 框架方面的專業知識。構建智能視覺 AI 應用程序和服務的開發者、研究人員和軟件合作伙伴可以將自己的數據用于調優預訓練模型,免去了從頭開始訓練的麻煩。
適用于智能視頻分析的 Tao 工具包TAO
深度學習 SDK
數據科學
分析工具
Deep Learning Profiler
Deep Learning Profiler 是一種用于分析深度學習模型的工具,旨在通過 TensorBoard 或分析文本報告直觀地理解和提升數據科學模型的性能。
借助 DLProf 提高性能
NVIDIA Nsight Systems
NVIDIA Nsight? Systems 是一個系統級性能分析工具,專用于實現應用算法的可視化,以幫助您發現諸多優化機會,以及進行調優以便跨任意數量或大小的 CPU 和 GPU(從大型服務器到最小的系統級芯片 [SoC])進行高效擴展。
借助 Nsight 擴展 AI 系統
預認證容器
NGC 提供了一系列選項,可滿足擁有不同水平 AI 專業知識的數據科學家、開發者和研究人員的需求。通過容器快速部署 AI 框架,利用預訓練模型或模型訓練腳本獲得領先優勢,并使用領域特定的工作流程和 Helm 圖表加速 AI 實施,讓您更快地獲得解決方案。
適用于 AI 的預認證容器
NVIDIA GPU 上的 Kubernetes
通過 NVIDIA GPU 上的 Kubernetes,企業可將訓練和推理部署無縫擴展到多云 GPU 集群。它能支持您在節點集群之間自動部署、維護、調度和操作多個 GPU 加速的應用容器。
使用 Kubernetes 擴展企業 AI
NVIDIA Data Center GPU Manager
NVIDIA Data Center GPU Manager (DCGM) 是一套用于管理和監控集群環境中 NVIDIA GPU 的工具。這是一款開銷較低的工具套件,可在每個主機系統上執行各種功能,包括主動運行狀況監控、診斷、系統驗證、策略、電源和時鐘管理、組配置和會計。
適用于集群的 NVIDIA Data Center GPU Manager
利用 Kubernetes 和 RAPIDS 提高數據科學團隊的效率
大規模收集的數據從根本上改變了組織開展業務的方式,推動了團隊對快速提供基于數據科學、機器學習和深度學習的有意義的業務見解的需求。了解數據科學領導者如何使用 RAPIDS 提高團隊的工作效率,同時優化其成本并最大限度地縮短部署時間。
提高數據科學生產力
適用于 GPU 加速的對話式 AI 應用程序的框架
在 GPU 上加速廣泛而深入的推薦系統推理
此博客介紹了基于 TensorFlow 的 DNNLinearCombinedClassifier API 的廣泛而深入的模型如何進行高度優化的 GPU 加速的推理實施。通過建議的解決方案,可以輕松將經過訓練的 TensorFlow 廣泛而深入的模型轉換為混合精度推理部署。
混合精度推理部署
利用 GPU 和 RAPIDS 對 Apache Spark 3.0 進行加速
NVIDIA 與 Apache Spark 社區合作,通過發布 Spark 3.0 和適用于 Spark 的開源 RAPIDS 加速器實施 GPU 加速。在此博客中,了解適用于 Apache Spark 的 RAPIDS 加速器如何使用 GPU 加速相同的 Spark 集群、Spark SQL 和 DataFrame 操作的端到端數據準備和模型訓練,而無需更改任何代碼。
適用于 Spark 的 RAPIDS 加速器
使用 NVIDIA NGC 訓練和調優 BERT
BERT(基于變換器的雙向編碼器)為自然語言處理 (NLP) 領域提供了顛覆性的轉換。它在受 NVIDIA GPU 支持的超級計算機上運行,以訓練其巨大的神經網絡并實現前所未有的 NLP 準確性,從而影響已知的人類語言理解空間。數十年來,這種 AI 一直備受期待。借助 BERT,這一刻終于到來。
調優 NLP
推薦系統訓練框架
點擊率 (CTR) 估算是現代推薦系統最關鍵的組成部分之一。在本博客中,我們介紹了 HugeCTR,這是一個用于 CTR 估計的 GPU 加速訓練框架,也是 NVIDIA Merlin 的支柱。HugeCTR 基于單個 NVIDIA V100 Tensor Core GPU,可將基于 40 核 CPU 節點的 TensorFlow 的速度提升高達 114 倍,將基于同一 V100 GPU 的 TensorFlow 的速度提升高達 8.3 倍。
適用于推薦系統的框架
查看所有課程