面向消費者互聯網的開發者資源

一個為消費者互聯網行業的開發者提供新聞和技術資源的中心。

加入 NVIDIA 開發者計劃,以訪問社區中各種 SDK, 技術資料和更多其它資源。注冊

消費者互聯網資源

推薦系統

NVIDIA Merlin

NVIDIA Merlin 是一種基于 GPU 的端到端推薦系統框架,可提供快速的特征工程和較高的訓練吞吐量,以加速深度學習推薦模型的實驗和生產再訓練。Merlin 還支持低延遲、高吞吐量和生產推理。


適用于推薦系統的 Merlin

對話式 AI 和自然語言處理

NVIDIA Riva

NVIDIA Riva 框架包括預訓練的對話式 AI 模型、工具和優化的端到端服務,可用于語音、視覺和自然語言理解 (NLU) 任務。除了 AI 服務之外,Riva 還可讓您同時融合視覺、音頻和其他傳感器輸入內容,以在虛擬助理、多用戶說話者分類和呼叫中心助理等應用領域中提供多用戶、多情景對話等功能。


適用于對話式 AI 和 NLU 的 Riva

NVIDIA NeMo

借助 NVIDIA NeMo?,研究人員和開發者可以通過易于使用的應用程序編程接口構建先進的對話式 AI 模型。


適用于對話式 AI 的 NeMo

圖像和視頻理解

NVIDIA Maxine

NVIDIA Maxine 是一款完全加速的平臺 SDK,供視頻會議服務開發者構建和部署支持 AI 的功能,以在云中使用先進模型。Maxine 包括用于 NVIDIA 研究推出的最新創新(例如面部對齊、注視校正、面部重新照明和實時翻譯,以及超分辨率、噪音消除、隱藏式字幕和虛擬助理等)的 API。


適用于視頻會議的 Maxine

NVIDIA DeepStream

使用 NVIDIA DeepStream SDK,您可以構建和部署支持 AI 的智能視頻分析 (IVA) 應用程序和服務。DeepStream 提供采用安全傳輸層協議 (TLS) 的多平臺可擴展框架,在邊緣進行部署以及連接到任何云。


適用于智能視頻分析的 DeepStream SDK

遷移學習工具包

NVIDIA 遷移學習工具包使您能夠為智能視頻分析 (IVA) 和計算機視覺應用程序創建準確高效的 AI 模型,而無需具備 AI 框架方面的專業知識。構建智能視覺 AI 應用程序和服務的開發者、研究人員和軟件合作伙伴可以將自己的數據用于調優預訓練模型,免去了從頭開始訓練的麻煩。


適用于智能視頻分析的 Tao 工具包TAO

深度學習 SDK

訓練

NVIDIA? CUDA-X AI? 是一個完整的深度學習軟件堆棧,可供研究人員和軟件開發者構建適用于對話式 AI、推薦系統和計算機視覺的高性能 GPU 加速應用程序。CUDA-X AI 庫為 MLPerf 等行業基準測試提供出色的訓練和推理性能。


加速 AI 訓練

推理

NVIDIA TensorRT? 是用于高性能深度學習推理的 SDK。它包含深度學習推理優化器和運行環境,讓深度學習推理應用程序實現低延遲和高吞吐量。


提升推理能力

數據科學

RAPIDS

NVIDIA RAPIDS? 是由 NVIDIA 開發的一套開源數據處理和機器學習庫,可為數據科學工作流程實現 GPU 加速。RAPIDS 依賴于 NVIDIA 的 CUDA? 語言,允許用戶通過易于使用的 Python 界面利用 GPU 處理和高帶寬 GPU 顯存。


加速數據科學

Apache Spark 3.0

GPU 加速的 Apache Spark 3.0 可在不更改代碼的情況下加快數據科學管道以及數據處理和模型培訓,同時大幅降低基礎設施成本。


加速數據處理

分析工具

Deep Learning Profiler

Deep Learning Profiler 是一種用于分析深度學習模型的工具,旨在通過 TensorBoard 或分析文本報告直觀地理解和提升數據科學模型的性能。


借助 DLProf 提高性能

NVIDIA Nsight Systems

NVIDIA Nsight? Systems 是一個系統級性能分析工具,專用于實現應用算法的可視化,以幫助您發現諸多優化機會,以及進行調優以便跨任意數量或大小的 CPU 和 GPU(從大型服務器到最小的系統級芯片 [SoC])進行高效擴展。


借助 Nsight 擴展 AI 系統

預認證容器

NGC 提供了一系列選項,可滿足擁有不同水平 AI 專業知識的數據科學家、開發者和研究人員的需求。通過容器快速部署 AI 框架,利用預訓練模型或模型訓練腳本獲得領先優勢,并使用領域特定的工作流程和 Helm 圖表加速 AI 實施,讓您更快地獲得解決方案。


適用于 AI 的預認證容器

NVIDIA GPU 上的 Kubernetes

通過 NVIDIA GPU 上的 Kubernetes,企業可將訓練和推理部署無縫擴展到多云 GPU 集群。它能支持您在節點集群之間自動部署、維護、調度和操作多個 GPU 加速的應用容器。


使用 Kubernetes 擴展企業 AI

NVIDIA Data Center GPU Manager

NVIDIA Data Center GPU Manager (DCGM) 是一套用于管理和監控集群環境中 NVIDIA GPU 的工具。這是一款開銷較低的工具套件,可在每個主機系統上執行各種功能,包括主動運行狀況監控、診斷、系統驗證、策略、電源和時鐘管理、組配置和會計。


適用于集群的 NVIDIA Data Center GPU Manager

利用 Kubernetes 和 RAPIDS 提高數據科學團隊的效率

大規模收集的數據從根本上改變了組織開展業務的方式,推動了團隊對快速提供基于數據科學、機器學習和深度學習的有意義的業務見解的需求。了解數據科學領導者如何使用 RAPIDS 提高團隊的工作效率,同時優化其成本并最大限度地縮短部署時間。


提高數據科學生產力

適用于 GPU 加速的對話式 AI 應用程序的框架

實時對話式 AI 是一項復雜而具有挑戰性的任務。探索 NVIDIA Riva,以及如何使用多個命令輕松快速地訪問其高性能對話式 AI 服務。


適用于對話式 AI 的框架

在 GPU 上加速廣泛而深入的推薦系統推理

此博客介紹了基于 TensorFlow 的 DNNLinearCombinedClassifier API 的廣泛而深入的模型如何進行高度優化的 GPU 加速的推理實施。通過建議的解決方案,可以輕松將經過訓練的 TensorFlow 廣泛而深入的模型轉換為混合精度推理部署。


混合精度推理部署

利用 GPU 和 RAPIDS 對 Apache Spark 3.0 進行加速

NVIDIA 與 Apache Spark 社區合作,通過發布 Spark 3.0 和適用于 Spark 的開源 RAPIDS 加速器實施 GPU 加速。在此博客中,了解適用于 Apache Spark 的 RAPIDS 加速器如何使用 GPU 加速相同的 Spark 集群、Spark SQL 和 DataFrame 操作的端到端數據準備和模型訓練,而無需更改任何代碼。


適用于 Spark 的 RAPIDS 加速器

使用 NVIDIA NGC 訓練和調優 BERT

BERT(基于變換器的雙向編碼器)為自然語言處理 (NLP) 領域提供了顛覆性的轉換。它在受 NVIDIA GPU 支持的超級計算機上運行,以訓練其巨大的神經網絡并實現前所未有的 NLP 準確性,從而影響已知的人類語言理解空間。數十年來,這種 AI 一直備受期待。借助 BERT,這一刻終于到來。


調優 NLP

推薦系統訓練框架

點擊率 (CTR) 估算是現代推薦系統最關鍵的組成部分之一。在本博客中,我們介紹了 HugeCTR,這是一個用于 CTR 估計的 GPU 加速訓練框架,也是 NVIDIA Merlin 的支柱。HugeCTR 基于單個 NVIDIA V100 Tensor Core GPU,可將基于 40 核 CPU 節點的 TensorFlow 的速度提升高達 114 倍,將基于同一 V100 GPU 的 TensorFlow 的速度提升高達 8.3 倍。


適用于推薦系統的框架
閱讀更多開發者博客


NVIDIA 深度學習學院

NVIDIA 深度學習培訓中心 (DLI) 針對 AI 和加速計算提供實操培訓,旨在解決現實問題。培訓可通過自定進度式在線課程或面對面的講師授課式研討會進行。


查看所有課程

注冊以接收 NVIDIA 發布的近期開發者新聞

訂閱