航空航天 – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Wed, 30 Apr 2025 08:58:50 +0000
zh-CN
hourly
1
196178272 -
SETI 如何利用人工智能搜索智能外星生命
http://www.open-lab.net/zh-cn/blog/how-seti-uses-ai-to-search-for-intelligent-alien-life/
Mon, 28 Apr 2025 08:55:58 +0000
http://www.open-lab.net/zh-cn/blog/?p=13675
Continued]]>
一位來自 SETI Institute 的研究人員在 GTC 2025 上向觀眾講述了 SETI 如何成功試用一種識別星際無線電波的新方法,從理論上講,該方法也可用于識別智能外星生命的通信。 SETI 是世界上尋找其他行星智能生命跡象的重要組織,其員工工程師 Luigi Cruz 描述了他的團隊如何使用 NVIDIA Holoscan 和 AI 準確識別遙遠的脈沖星發出的無線電信號。 SETI 團隊使用位于加利福尼亞州帽子河艾倫望遠鏡陣列的 42 個不同但同步的天線,識別了位于 Crab Nebula (距離地球約 6,500 光年) 中的脈沖星發出的無線電信號。 “宇宙非常大,而且大部分都是空的,”Cruz 說。“我們需要超人的方法 — — 這就是 AI 的本質 — — 以創造性的方式搜索數據。” SETI 研究人員使用 NVIDIA Holoscan 和定制神經網絡,
Source
]]>
13675
-
借助 NVIDIA GPU 從 Luminary Cloud 的工程模擬中更快地獲得見解
http://www.open-lab.net/zh-cn/blog/faster-insights-from-luminary-clouds-engineering-simulations-with-nvidia-gpus/
Fri, 26 Jul 2024 08:17:32 +0000
http://www.open-lab.net/zh-cn/blog/?p=10838
Continued]]>
工程模擬跨行業應用,以加速產品開發。模擬用于檢查飛機、汽車和建筑物的安全性,確保您的手機隨時隨地都有信號,并最大限度地擴大新款電動汽車的行駛范圍。它減少了對昂貴且耗時的物理測試的需求,并使工程師能夠更快地迭代改進設計。 遺憾的是,運行復雜的模擬也需要大量的高性能計算(HPC)資源,并且會耗費大量時間。 Luminary Cloud, 一 NVIDIA Inception 程序面向初創公司的成員,從一開始就利用最新的云和 NVIDIA GPU 技術進行開發,從而消除組織的計算負擔并加速這些模擬。 在本文中,我將討論在各行各業中更廣泛地采用模擬所面臨的挑戰,以及 Luminary Cloud 如何使用最新的云和 NVIDIA GPU 加速計算來應對這些挑戰。我還將討論與Joby Aviation的真實案例研究。 在計算流體動力學(CFD)領域,
Source
]]>
10838
-
在 cuBLAS 中引入分組 GEMM API 以及更多性能更新
http://www.open-lab.net/zh-cn/blog/introducing-grouped-gemm-apis-in-cublas-and-more-performance-updates/
Wed, 12 Jun 2024 05:43:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=10332
Continued]]>
最新版本 NVIDIA cuBLAS 庫版本 12.5 將繼續為深度學習(DL)和高性能計算(HPC)工作負載提供功能和性能。本文將概述自版本 12.0以來 cuBLAS 矩陣乘法(matrix multiplications)中的以下更新: 分組的 GEMM API 可視為批量 API 的泛化,可在一次內核啟動中對不同的矩陣大小、轉置和縮放因子進行分組和并行化。 這種方法提供加速的一個示例是多專家 (MoE)模型的批量大小為 8 和 64,以及 FP16 輸入和輸出。在本示例中,分組的 GEMM API 可以使用批量 GEMM API 實現比單純循環快 1.2 倍的速度。 這一點令人印象深刻,因為當前分組的 GEMM 核函數僅利用線程束級 MMA 指令。它們已證明可以與利用線程束級 MMA (wgmma) 指令的分批 GEMM 核函數進行競爭。
Source
]]>
10332
-
聚焦:思科借助 NVIDIA BlueField-3 DPU 提高工作負載安全性和運營效率
http://www.open-lab.net/zh-cn/blog/spotlight-cisco-enhances-workload-security-and-operational-efficiency-with-nvidia-bluefield-3-dpus/
Mon, 10 Jun 2024 06:59:14 +0000
http://www.open-lab.net/zh-cn/blog/?p=10346
Continued]]>
隨著網絡攻擊變得越來越復雜,組織必須不斷采用先進的解決方案來保護其關鍵資產。其中一種解決方案是Cisco Secure Workload,這是一種全面的安全解決方案,旨在保護跨不同基礎設施、位置和外形尺寸的應用程序工作負載。 Cisco 最近發布了 Cisco Secure Workload 3.9 版,該版本將企業的安全性和運營效率提升到了新的水平。它提供了新的功能來緩解威脅和漏洞,并為部署 microsegmentation 提供了更大的靈活性。現在,它還擴展到NVIDIA BlueField-3 數據處理器,其專用 Arm 核心可以加速硬件任務并隔離特定操作,從而確保高效數據處理和強大的安全性,從而打造更精簡、更安全的基礎設施。 思科安全工作負載可為每次工作負載交互提供出色的可見性,并利用 AI 的強大功能自動執行人類管理員無法完成的任務,從而保護應用程序工作負載。
Source
]]>
10346
-
借助 NVIDIA NIM 無縫部署大量 LoRA Adapters
http://www.open-lab.net/zh-cn/blog/seamlessly-deploying-a-swarm-of-lora-adapters-with-nvidia-nim/
Fri, 07 Jun 2024 07:49:27 +0000
http://www.open-lab.net/zh-cn/blog/?p=10358
Continued]]>
最新的先進基礎大型語言模型 (LLM) 擁有數十億個參數,并已在數萬億個輸入文本標記上進行了預訓練。它們通常在各種用例上都取得了驚人的成果,而無需進行任何定制。盡管如此,研究表明,通過使用高質量、特定領域的數據集調整 LLM 可以實現下游任務的最佳準確率。 在許多情況下,較小的自定義模型可以美甚至優于較大的通用 LLM,同時顯著降低部署成本。但是,針對特定下游任務定制模型可能會在創建和部署期間帶來重大挑戰。 完整的 full fine-tuning 對于大型語言模型(LLM,即更新模型的所有參數),由于在整個模型中學習所需的計算基礎設施數量,可能很困難。在部署時,基礎設施成本也會增加,因為用戶需要在內存中托管多個大型模型,或者隨著整個模型的交換而承受更高的延遲。Low-rank adaptation(LoRA)是一種緩解這兩個問題的技術。 本文簡要概述了 LoRA,
Source
]]>
10358
-
在 NVIDIA Holoscan SDK 中 構建集成 OpenCV 的零拷貝 AI 傳感器處理流程
http://www.open-lab.net/zh-cn/blog/build-a-zero-copy-ai-sensor-processing-pipeline-with-opencv-in-nvidia-holoscan-sdk/
Wed, 05 Jun 2024 07:19:36 +0000
http://www.open-lab.net/zh-cn/blog/?p=10193
Continued]]>
NVIDIA Holoscan 是 NVIDIA 的多模態實時 AI 傳感器處理平臺,旨在幫助開發者構建端到端傳感器處理流程。該平臺的核心組件是 NVIDIA Holoscan SDK,其功能包括: Holoscan SDK 可用于為多種行業和應用場景構建流式 AI 流程,包括醫療設備、邊緣高性能計算和工業檢測等領域。有關更多信息,請參閱 使用 NVIDIA Holoscan 開發生產就緒型 AI 傳感器處理應用,以獲取詳細信息。 Holoscan SDK 通過充分利用軟件和硬件來加速流式 AI 應用。它可以與 RDMA 技術 結合,通過 GPU 加速進一步提高端到端流程性能。通常,端到端傳感器處理流程包括: 此流程中的所有數據都存儲在 GPU 顯存中,Holoscan 原生運算符可以直接訪問,而無需主機設備內存傳輸。
Source
]]>
10193
-
借助 NVIDIA JetPack 6.0 助力邊緣云原生微服務,現已正式發布
http://www.open-lab.net/zh-cn/blog/power-cloud-native-microservices-at-the-edge-with-nvidia-jetpack-6-0-now-ga/
Tue, 04 Jun 2024 07:34:51 +0000
http://www.open-lab.net/zh-cn/blog/?p=10204
Continued]]>
NVIDIA JetPack SDK 為 NVIDIA Jetson 模組提供支持,為構建端到端加速的人工智能應用提供全面的解決方案。JetPack 6 通過微服務和一系列新功能擴展了 Jetson 平臺的靈活性和可擴展性。這是 JetPack 2024 年下載次數最多的版本。 隨著 JetPack 6.0 正式發布,開發者可以滿懷信心地將這些新功能引入更先進的嵌入式 AI 和機器人應用。本文重點介紹了主要功能和新的 AI 工作流程。 JetPack 6 支持在 Jetson 上擴展一系列基于 Linux 的發行版。其中包括 Canonical 的 Ubuntu 服務器、Redhat 的 RHEL 9.4、SUSE、Wind River Linux、Redhawk Real Time OS 以及各種基于 Yocto 的發行版。這些基于 Linux 的發行版在 Jetson…
Source
]]>
10204
-
生成式 AI 智能體開發者競賽:入門技巧
http://www.open-lab.net/zh-cn/blog/generative-ai-agents-developer-contest-top-tips-for-getting-started/
Wed, 29 May 2024 06:34:26 +0000
http://www.open-lab.net/zh-cn/blog/?p=10133
Continued]]>
參加我們將于 6 月 17 日結束的比賽,使用前沿技術展示您的創新成果:由生成式 AI 驅動的應用程序,該應用程序使用 NVIDIA 和 LangChain 技術。為了讓您開始,我們將探索一些用于激發您的創意之旅的應用程序,同時分享提示和最佳實踐,幫助您在開發過程中取得成功。 生成式 AI 智能體有許多不同的實際應用。在之前的比賽中開發的智能體或 Copilot 應用會根據應用的隱私、安全和計算要求使用大型語言模型 (LLM) 或小型語言模型 (SLM)。 這些示例包括: 開發者可以在游戲、醫療健康、媒體和娛樂等領域創建用于內容生成的應用。其他選項包括總結、在醫療健康領域,客服人員可以通過分析患者癥狀、病史和臨床數據來幫助診斷疾病,例如問答環節。 其中許多想法都適用于您的數據和您想要解決的問題 – 無論是使用客服改善每周的雜貨店購物,
Source
]]>
10133
-
NVIDIA TensorRT 10.0 升級可用性、性能和 AI 模型支持
http://www.open-lab.net/zh-cn/blog/nvidia-tensorrt-10-0-upgrades-usability-performance-and-ai-model-support/
Tue, 14 May 2024 07:01:41 +0000
http://www.open-lab.net/zh-cn/blog/?p=10008
Continued]]>
NVIDIA 今天宣布最新發布的 NVIDIA TensorRT,一個用于高性能深度學習推理的 API 生態系統。該系統包括推理運行時和模型優化兩大組件,為生產應用程序提供低延遲和高吞吐量的優化解決方案。 這篇文章概述了此版本的關鍵功能和升級,包括更容易的安裝、更高的可用性、改進的性能以及更多本地支持的人工智能模型。 得益于更新的 Debian 和 RPM 元包,使用 TensorRT 10.0 變得更加容易上手。例如,使用或命令便可為 C++ 或 Python 安裝所有相關的 TensorRT 庫。 此外,Debug Tensors 是一個新添加的 API,用于在構建時將張量標記為調試張量。這樣可以更容易地識別圖形中出現的任何問題。在運行時,每次寫入張量的值時,都會使用值、類型和維度調用一個用戶定義的回調函數。 TensorRT 10.0…
Source
]]>
10008
-
Databricks 上的 RAPIDS: GPU 加速數據處理指南
http://www.open-lab.net/zh-cn/blog/rapids-on-databricks-a-guide-to-gpu-accelerated-data-processing/
Tue, 14 May 2024 06:52:30 +0000
http://www.open-lab.net/zh-cn/blog/?p=9996
Continued]]>
在當今數據驅動的環境中,最大限度地提高數據處理和分析的性能和效率至關重要。雖然許多 Databricks 用戶熟悉使用 GPU 集群進行機器學習訓練,但也有巨大的機會利用 GPU 加速進行數據處理和分析任務。 Databricks 作為一個基于云的統一平臺,使用戶能夠高效地管理小型和大型數據需求。通過將 GPU 集群集成到現有工作流程中,用戶可以獲得顯著的性能提升,從而增強其數據分析能力。 本指南探討了 RAPIDS 如何幫助解鎖 Databricks 上的 GPU 加速,以使用熟悉的 API 和插件轉換數據處理和分析。RAPIDS 為 Databricks 用戶提供了多種加速現有工作流的選項,包括單節點處理以及與 Spark 和 Dask 的集成。這篇文章重點介紹了以下針對單節點和多節點用戶的安裝選項和集成方法。 對于單節點用戶,
Source
]]>
9996
-
NVIDIA TensorRT 模型優化器加速生成人工智能推理性能,現已公開
http://www.open-lab.net/zh-cn/blog/accelerate-generative-ai-inference-performance-with-nvidia-tensorrt-model-optimizer-now-publicly-available/
Wed, 08 May 2024 04:49:34 +0000
http://www.open-lab.net/zh-cn/blog/?p=9822
Continued]]>
在快速發展的環境中,生成人工智能的發展對加速推理速度的需求仍然是一個緊迫的問題。隨著模型規模和復雜性的指數級增長,對快速生成結果以同時服務于眾多用戶的需求也在持續增長。NVIDIA 平臺站在這一努力的前沿,通過芯片、系統、軟件和算法等全技術堆棧的創新,實現永久的性能飛躍。 NVIDIA 正在擴展其推理產品 NVIDIA TensorRT 模型優化器,一個集成了最先進的后期訓練和環中訓練模型優化技術的綜合庫。這些技術包括量化和稀疏性,旨在降低模型復雜性,以實現更高效的下游推理庫,如 NVIDIA TensorRT LLM,從而更有效地優化深度學習模型的推理速度。 作為 NVIDIA TensorRT 生態系統的一部分,NVIDIA TensorRT 模型優化器(簡稱模型優化器)可用于多種流行的體系結構,包括 NVIDIA Hopper、NVIDIA Ampere 和 NVIDIA…
Source
]]>
9822
-
利用基于專家的混合 DBRX 在不同任務上實現卓越的 LLM 性能
http://www.open-lab.net/zh-cn/blog/leverage-mixture-of-experts-based-dbrx-for-superior-llm-performance-on-diverse-tasks/
Tue, 30 Apr 2024 08:49:49 +0000
http://www.open-lab.net/zh-cn/blog/?p=9893
Continued]]>
本周,我們發布了模型功能 DBRX,這是由 Databricks 開發的最先進的大型語言模型(LLM)。DBRX 在編程和編碼任務方面展示出了強大的實力,擅長使用 Python 等語言處理專門的主題和編寫特定的算法。此外,它還可以應用于文本完成任務和少回合交互。DBRX 的長上下文能力可用于 RAG 系統,以提高準確性和保真度。 模型對細粒度的使用 混合專家(MoE) 體系結構是它區別于其他模型的一個關鍵特性。該 MoE 架構通過利用一組專門的“專家”網絡,擅長處理復雜任務。在推理過程中,MoE 使用學習的門控機制,基于輸入數據動態選擇并組合這些專家網絡的輸出,以實現更好的性能。 這種門控機制將輸入數據的不同部分路由到最相關的專家網絡,使教育部能夠有效地利用其集體專業知識并產生卓越的預測或輸出。通過自適應地協調其組成網絡的貢獻,MoE 在有效利用計算資源的同時,
Source
]]>
9893
-
Mistral Large 和 Mixtral 8x22B LLM 現已由 NVIDIA NIM 和 NVIDIA API 提供支持
http://www.open-lab.net/zh-cn/blog/mistral-large-and-mixtral-8x22b-llms-now-powered-by-nvidia-nim-and-nvidia-api/
Mon, 22 Apr 2024 04:56:57 +0000
http://www.open-lab.net/zh-cn/blog/?p=9644
Continued]]>
本周發布的模型包括兩個新的 NVIDIA AI 基礎模型:Mistral Large 和 Mixtral 8x22B。這兩個高級文本生成 AI 模型由 Mistral AI 開發,并通過 NVIDIA NIM 微服務提供預構建容器,以簡化部署過程,將部署時間從數周縮短到幾分鐘。這兩個模型可通過 NVIDIA API 目錄 訪問。 Mistral Large 是大型語言模型 (LLM),它擅長處理復雜的多語種推理任務,包括文本理解、轉換和代碼生成。它因精通英語、法語、西班牙語、德語和意大利語以及對語法和文化語境的深入理解而脫穎而出。 該模型具有 32K 令牌上下文窗口,可從大量文檔中調用精確信息。它在指令跟隨和函數調用方面表現出色。Mistral Large 在各種基準測試中表現強勁,并展示了應對編碼和數學挑戰的強大推理能力。
Source
]]>
9644
-
借助 NVIDIA NeMo Parakeet-TDT 提高 ASR 的準確性和速度
http://www.open-lab.net/zh-cn/blog/turbocharge-asr-accuracy-and-speed-with-nvidia-nemo-parakeet-tdt/
Thu, 18 Apr 2024 05:52:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=9683
Continued]]>
NVIDIA NeMo 是一個端到端平臺,用于在任何云和本地的任何地方大規模開發多模式生成 AI 模型,最近發布了 Parakeet-TDT。Parakeet-TDT 是這個新成員的其中一個,它與之前的最佳模型相比,具有更高的準確度和 64%的速度。NeMo ASR Parakeet 模型系列包括 Parakeet-TDT 和 NeMo ASR Parakeet 模型系列。 本文介紹了 Parakeet-TDT,以及如何使用它生成具有高實時系數的高精度轉錄,在一秒內處理 10 分鐘的音頻。 Parakeet-TDT (令牌和持續時間傳感器) 是 NVIDIA 開發的一種新型序列建模架構。最新研究表明,與傳統傳感器相比較,TDT 模型在速度和識別精度的方面有顯著提高。有關更多詳細信息,請參閱 此論文。 從正確性角度來看,具有 11 億個參數的 Parakeet-TDT…
Source
]]>
9683
-
借助 NVIDIA NeMo 開發自定義企業生成式 AI
http://www.open-lab.net/zh-cn/blog/develop-custom-enterprise-generative-ai-with-nvidia-nemo/
Wed, 27 Mar 2024 08:11:00 +0000
http://www.open-lab.net/zh-cn/blog/?p=9456
Continued]]>
生成式 AI 在計算領域發生了翻身,為人類以自然、直觀的方式與計算機交互打開了新方式。對于企業來說,生成式 AI 的潛力巨大。他們可以利用其豐富的數據集簡化耗時的任務,從文本摘要和翻譯到見解預測和內容生成。然而,他們也面臨著采用挑戰。 例如,云服務通過使用通用型 大型語言模型 簡化了探索。然而,這些功能可能并不總是與企業需求保持一致,因為模型基于廣泛的數據集而不是特定領域的數據進行訓練,這可能會導致安全漏洞。 因此,組織正在使用大量開源工具構建定制解決方案。從驗證兼容性到提供自己的技術支持,這可以延長在企業中成功采用生成式 AI 的時間。 專為企業開發,NVIDIA NeMo 是一個端到端平臺,可隨時隨地構建自定義生成式 AI 應用。它提供了一套先進的微服務,可實現完整的工作流程,從自動化分布式數據處理,到使用復雜的 3D 并行技術訓練大規模定制模型,
Source
]]>
9456
人人超碰97caoporen国产