建筑/工程/施工 – NVIDIA 技術博客 http://www.open-lab.net/zh-cn/blog 閱讀開發者創建的最新技術信息、頭條新聞 和內容。 Wed, 09 Apr 2025 05:57:25 +0000 zh-CN hourly 1 196178272 AEC 檢索增強生成技術指南 http://www.open-lab.net/zh-cn/blog/a-guide-to-retrieval-augmented-generation-for-aec/ Wed, 18 Dec 2024 09:27:28 +0000 http://www.open-lab.net/zh-cn/blog/?p=12492 Continued]]> 大語言模型 (LLMs) 正在迅速改變業務格局,為自然語言處理 (NLP)、內容生成和數據分析提供新功能。這些 AI 驅動的工具改善了公司的運營方式,從簡化客戶服務到增強決策流程。 然而,盡管 LLM 擁有令人印象深刻的一般知識,但其準確性、最新信息和特定領域的知識卻常常捉見肘。這可能會導致建筑、施工和工程 (AEC) 等專業領域出現潛在的錯誤信息和過度簡化,而準確的最新信息對于做出明智決策和確保遵守行業法規至關重要。 想象一下,一個由建筑師和工程師組成的設計團隊會使用 LLM 提出山中房屋的構思。當被問及是否采用適合當地氣候的可持續建筑技術時,LLM 可能會提供有關使用太陽能板和綠色屋頂的通用回答,而無需考慮高海拔環境的特定挑戰,例如極端溫度波動和潛在的雪載。在問題更嚴重的情況下,LLM 可能會產生幻覺,并建議使用“太陽能融雪板”— — 這項技術聽起來很創新,但根本不存在。

Source

]]>
12492
利用 AI 和 NVIDIA RTX GPU 加速現實捕捉工作流程效率 http://www.open-lab.net/zh-cn/blog/accelerating-reality-capture-workflows-with-ai-and-nvidia-rtx-gpus/ Mon, 07 Oct 2024 08:00:36 +0000 http://www.open-lab.net/zh-cn/blog/?p=11457 Continued]]> Reality Capture 可創建高度準確、細節豐富的沉浸式環境數字表示。現場掃描和加速數據處理方面的創新以及神經輻射場(Neural Radiance Fields)和高斯拼接等新興技術正在顯著增強 Reality Capture 的功能,這些技術正在徹底改變與物理世界的交互和分析。 作為現實捕獲的第一步,站點掃描使用激光雷達和攝影測量等方法生成詳細的 3D 模型,同時由 NVIDIA RTX GPU 提供支持的加速處理可實現更快、更高效的數據處理。NeRFs 擅長生成逼真的 3D 場景,而高斯射板技術則提供了一種實現流暢、高效渲染的新穎方法。人工智能通過提供用于對象檢測、分割和分類的高級算法來增強這些工具,從而提供更深入的見解。 本文將探討 NVIDIA 如何走在人工智能與現實捕獲集成的前沿,借助強大的 GPU、軟件解決方案和尖端研究推動這些技術進步。

Source

]]>
11457
了解 Stable Diffusion 模型:面向 AEC 專業人員的基本指南 http://www.open-lab.net/zh-cn/blog/understanding-diffusion-models-an-essential-guide-for-aec-professionals/ Wed, 10 Jul 2024 06:20:11 +0000 http://www.open-lab.net/zh-cn/blog/?p=10585 Continued]]> 生成式 AI、算法處理各種類型的輸入—例如文本、圖像、音頻、視頻和代碼—并生成新內容的能力正在以前所未有的速度發展。雖然這項技術在多個行業都取得了重大進展,但建筑、工程和施工 (AEC) 行業將從中受益匪淺。 歷史上,AEC 公司一直在與支離破碎的數據系統作斗爭。這導致各個部門或項目階段的重要信息被隔離,從而導致效率低下、解釋錯誤和增加項目成本。隨著 生成式 AI 的出現,AEC 行業正處于轉型的邊緣。 這項前沿技術通過集成數據、自動執行設計任務和增強協作,有可能徹底改變 AEC 行業,從而打造更高效、更創新和更可持續的項目。 自推出生成式 AI 以來,GPT-4 等大型語言模型 (LLM) 一直處于前沿,以其在自然語言處理、機器翻譯和內容創建方面的通用性而聞名。除此之外,OpenAI 的 DALL-E、Google 的 Imagen、

Source

]]>
10585
在 cuBLAS 中引入分組 GEMM API 以及更多性能更新 http://www.open-lab.net/zh-cn/blog/introducing-grouped-gemm-apis-in-cublas-and-more-performance-updates/ Wed, 12 Jun 2024 05:43:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=10332 Continued]]> 最新版本 NVIDIA cuBLAS 庫版本 12.5 將繼續為深度學習(DL)和高性能計算(HPC)工作負載提供功能和性能。本文將概述自版本 12.0以來 cuBLAS 矩陣乘法(matrix multiplications)中的以下更新: 分組的 GEMM API 可視為批量 API 的泛化,可在一次內核啟動中對不同的矩陣大小、轉置和縮放因子進行分組和并行化。 這種方法提供加速的一個示例是多專家 (MoE)模型的批量大小為 8 和 64,以及 FP16 輸入和輸出。在本示例中,分組的 GEMM API 可以使用批量 GEMM API 實現比單純循環快 1.2 倍的速度。 這一點令人印象深刻,因為當前分組的 GEMM 核函數僅利用線程束級 MMA 指令。它們已證明可以與利用線程束級 MMA (wgmma) 指令的分批 GEMM 核函數進行競爭。

Source

]]>
10332
聚焦:思科借助 NVIDIA BlueField-3 DPU 提高工作負載安全性和運營效率 http://www.open-lab.net/zh-cn/blog/spotlight-cisco-enhances-workload-security-and-operational-efficiency-with-nvidia-bluefield-3-dpus/ Mon, 10 Jun 2024 06:59:14 +0000 http://www.open-lab.net/zh-cn/blog/?p=10346 Continued]]> 隨著網絡攻擊變得越來越復雜,組織必須不斷采用先進的解決方案來保護其關鍵資產。其中一種解決方案是Cisco Secure Workload,這是一種全面的安全解決方案,旨在保護跨不同基礎設施、位置和外形尺寸的應用程序工作負載。 Cisco 最近發布了 Cisco Secure Workload 3.9 版,該版本將企業的安全性和運營效率提升到了新的水平。它提供了新的功能來緩解威脅和漏洞,并為部署 microsegmentation 提供了更大的靈活性。現在,它還擴展到NVIDIA BlueField-3 數據處理器,其專用 Arm 核心可以加速硬件任務并隔離特定操作,從而確保高效數據處理和強大的安全性,從而打造更精簡、更安全的基礎設施。 思科安全工作負載可為每次工作負載交互提供出色的可見性,并利用 AI 的強大功能自動執行人類管理員無法完成的任務,從而保護應用程序工作負載。

Source

]]>
10346
借助 NVIDIA NIM 無縫部署大量 LoRA Adapters http://www.open-lab.net/zh-cn/blog/seamlessly-deploying-a-swarm-of-lora-adapters-with-nvidia-nim/ Fri, 07 Jun 2024 07:49:27 +0000 http://www.open-lab.net/zh-cn/blog/?p=10358 Continued]]> 最新的先進基礎大型語言模型 (LLM) 擁有數十億個參數,并已在數萬億個輸入文本標記上進行了預訓練。它們通常在各種用例上都取得了驚人的成果,而無需進行任何定制。盡管如此,研究表明,通過使用高質量、特定領域的數據集調整 LLM 可以實現下游任務的最佳準確率。 在許多情況下,較小的自定義模型可以美甚至優于較大的通用 LLM,同時顯著降低部署成本。但是,針對特定下游任務定制模型可能會在創建和部署期間帶來重大挑戰。 完整的 full fine-tuning 對于大型語言模型(LLM,即更新模型的所有參數),由于在整個模型中學習所需的計算基礎設施數量,可能很困難。在部署時,基礎設施成本也會增加,因為用戶需要在內存中托管多個大型模型,或者隨著整個模型的交換而承受更高的延遲。Low-rank adaptation(LoRA)是一種緩解這兩個問題的技術。 本文簡要概述了 LoRA,

Source

]]>
10358
在 NVIDIA Holoscan SDK 中 構建集成 OpenCV 的零拷貝 AI 傳感器處理流程 http://www.open-lab.net/zh-cn/blog/build-a-zero-copy-ai-sensor-processing-pipeline-with-opencv-in-nvidia-holoscan-sdk/ Wed, 05 Jun 2024 07:19:36 +0000 http://www.open-lab.net/zh-cn/blog/?p=10193 Continued]]> NVIDIA Holoscan 是 NVIDIA 的多模態實時 AI 傳感器處理平臺,旨在幫助開發者構建端到端傳感器處理流程。該平臺的核心組件是 NVIDIA Holoscan SDK,其功能包括: Holoscan SDK 可用于為多種行業和應用場景構建流式 AI 流程,包括醫療設備、邊緣高性能計算和工業檢測等領域。有關更多信息,請參閱 使用 NVIDIA Holoscan 開發生產就緒型 AI 傳感器處理應用,以獲取詳細信息。 Holoscan SDK 通過充分利用軟件和硬件來加速流式 AI 應用。它可以與 RDMA 技術 結合,通過 GPU 加速進一步提高端到端流程性能。通常,端到端傳感器處理流程包括: 此流程中的所有數據都存儲在 GPU 顯存中,Holoscan 原生運算符可以直接訪問,而無需主機設備內存傳輸。

Source

]]>
10193
借助 NVIDIA JetPack 6.0 助力邊緣云原生微服務,現已正式發布 http://www.open-lab.net/zh-cn/blog/power-cloud-native-microservices-at-the-edge-with-nvidia-jetpack-6-0-now-ga/ Tue, 04 Jun 2024 07:34:51 +0000 http://www.open-lab.net/zh-cn/blog/?p=10204 Continued]]> NVIDIA JetPack SDK 為 NVIDIA Jetson 模組提供支持,為構建端到端加速的人工智能應用提供全面的解決方案。JetPack 6 通過微服務和一系列新功能擴展了 Jetson 平臺的靈活性和可擴展性。這是 JetPack 2024 年下載次數最多的版本。 隨著 JetPack 6.0 正式發布,開發者可以滿懷信心地將這些新功能引入更先進的嵌入式 AI 和機器人應用。本文重點介紹了主要功能和新的 AI 工作流程。 JetPack 6 支持在 Jetson 上擴展一系列基于 Linux 的發行版。其中包括 Canonical 的 Ubuntu 服務器、Redhat 的 RHEL 9.4、SUSE、Wind River Linux、Redhawk Real Time OS 以及各種基于 Yocto 的發行版。這些基于 Linux 的發行版在 Jetson…

Source

]]>
10204
使用新的 NVIDIA Isaac 基礎模型和工作流程創建、設計和部署機器人應用 http://www.open-lab.net/zh-cn/blog/create-design-and-deploy-robotics-applications-using-new-nvidia-isaac-foundation-models-and-workflows/ Sun, 02 Jun 2024 08:37:24 +0000 http://www.open-lab.net/zh-cn/blog/?p=10246 Continued]]> 機器人在智能制造設施、商業廚房、醫院、倉庫物流和農業領域等不同環境中的應用正在迅速擴展。該行業正在向智能自動化轉變,這需要增強的機器人功能來執行感知、地圖構建、導航、負載處理、物體抓取和復雜的裝配任務等功能。 AI 在這一變革中發揮著關鍵作用,提高了機器人的性能。通過集成 NVIDIA AI 加速,機器人可以更高的精度和效率處理復雜的任務,在各種應用中充分發揮自己的潛力。 在 COMPUTEX,我們 宣布了一些新功能,可幫助機器人專家和工程師構建智能機器人。這些功能包括: AMR 和 AGV 對于裝配線效率、物料搬運和醫療健康物流至關重要。隨著這些機器人在復雜和非結構化環境中導航,感知周圍環境并作出反應的能力變得至關重要。 Isaac Perceptor,基于 NVIDIA Isaac 機器人操作系統 (ROS),助力原始設備制造商 (OEM)、貨運服務提供商、

Source

]]>
10246
生成式 AI 智能體開發者競賽:入門技巧 http://www.open-lab.net/zh-cn/blog/generative-ai-agents-developer-contest-top-tips-for-getting-started/ Wed, 29 May 2024 06:34:26 +0000 http://www.open-lab.net/zh-cn/blog/?p=10133 Continued]]> 參加我們將于 6 月 17 日結束的比賽,使用前沿技術展示您的創新成果:由生成式 AI 驅動的應用程序,該應用程序使用 NVIDIA 和 LangChain 技術。為了讓您開始,我們將探索一些用于激發您的創意之旅的應用程序,同時分享提示和最佳實踐,幫助您在開發過程中取得成功。 生成式 AI 智能體有許多不同的實際應用。在之前的比賽中開發的智能體或 Copilot 應用會根據應用的隱私、安全和計算要求使用大型語言模型 (LLM) 或小型語言模型 (SLM)。 這些示例包括: 開發者可以在游戲、醫療健康、媒體和娛樂等領域創建用于內容生成的應用。其他選項包括總結、在醫療健康領域,客服人員可以通過分析患者癥狀、病史和臨床數據來幫助診斷疾病,例如問答環節。 其中許多想法都適用于您的數據和您想要解決的問題 – 無論是使用客服改善每周的雜貨店購物,

Source

]]>
10133
NVIDIA TensorRT 10.0 升級可用性、性能和 AI 模型支持 http://www.open-lab.net/zh-cn/blog/nvidia-tensorrt-10-0-upgrades-usability-performance-and-ai-model-support/ Tue, 14 May 2024 07:01:41 +0000 http://www.open-lab.net/zh-cn/blog/?p=10008 Continued]]> NVIDIA 今天宣布最新發布的 NVIDIA TensorRT,一個用于高性能深度學習推理的 API 生態系統。該系統包括推理運行時和模型優化兩大組件,為生產應用程序提供低延遲和高吞吐量的優化解決方案。 這篇文章概述了此版本的關鍵功能和升級,包括更容易的安裝、更高的可用性、改進的性能以及更多本地支持的人工智能模型。 得益于更新的 Debian 和 RPM 元包,使用 TensorRT 10.0 變得更加容易上手。例如,使用或命令便可為 C++ 或 Python 安裝所有相關的 TensorRT 庫。 此外,Debug Tensors 是一個新添加的 API,用于在構建時將張量標記為調試張量。這樣可以更容易地識別圖形中出現的任何問題。在運行時,每次寫入張量的值時,都會使用值、類型和維度調用一個用戶定義的回調函數。 TensorRT 10.0…

Source

]]>
10008
Databricks 上的 RAPIDS: GPU 加速數據處理指南 http://www.open-lab.net/zh-cn/blog/rapids-on-databricks-a-guide-to-gpu-accelerated-data-processing/ Tue, 14 May 2024 06:52:30 +0000 http://www.open-lab.net/zh-cn/blog/?p=9996 Continued]]> 在當今數據驅動的環境中,最大限度地提高數據處理和分析的性能和效率至關重要。雖然許多 Databricks 用戶熟悉使用 GPU 集群進行機器學習訓練,但也有巨大的機會利用 GPU 加速進行數據處理和分析任務。 Databricks 作為一個基于云的統一平臺,使用戶能夠高效地管理小型和大型數據需求。通過將 GPU 集群集成到現有工作流程中,用戶可以獲得顯著的性能提升,從而增強其數據分析能力。 本指南探討了 RAPIDS 如何幫助解鎖 Databricks 上的 GPU 加速,以使用熟悉的 API 和插件轉換數據處理和分析。RAPIDS 為 Databricks 用戶提供了多種加速現有工作流的選項,包括單節點處理以及與 Spark 和 Dask 的集成。這篇文章重點介紹了以下針對單節點和多節點用戶的安裝選項和集成方法。 對于單節點用戶,

Source

]]>
9996
NVIDIA TensorRT 模型優化器加速生成人工智能推理性能,現已公開 http://www.open-lab.net/zh-cn/blog/accelerate-generative-ai-inference-performance-with-nvidia-tensorrt-model-optimizer-now-publicly-available/ Wed, 08 May 2024 04:49:34 +0000 http://www.open-lab.net/zh-cn/blog/?p=9822 Continued]]> 在快速發展的環境中,生成人工智能的發展對加速推理速度的需求仍然是一個緊迫的問題。隨著模型規模和復雜性的指數級增長,對快速生成結果以同時服務于眾多用戶的需求也在持續增長。NVIDIA 平臺站在這一努力的前沿,通過芯片、系統、軟件和算法等全技術堆棧的創新,實現永久的性能飛躍。 NVIDIA 正在擴展其推理產品 NVIDIA TensorRT 模型優化器,一個集成了最先進的后期訓練和環中訓練模型優化技術的綜合庫。這些技術包括量化和稀疏性,旨在降低模型復雜性,以實現更高效的下游推理庫,如 NVIDIA TensorRT LLM,從而更有效地優化深度學習模型的推理速度。 作為 NVIDIA TensorRT 生態系統的一部分,NVIDIA TensorRT 模型優化器(簡稱模型優化器)可用于多種流行的體系結構,包括 NVIDIA Hopper、NVIDIA Ampere 和 NVIDIA…

Source

]]>
9822
利用基于專家的混合 DBRX 在不同任務上實現卓越的 LLM 性能 http://www.open-lab.net/zh-cn/blog/leverage-mixture-of-experts-based-dbrx-for-superior-llm-performance-on-diverse-tasks/ Tue, 30 Apr 2024 08:49:49 +0000 http://www.open-lab.net/zh-cn/blog/?p=9893 Continued]]> 本周,我們發布了模型功能 DBRX,這是由 Databricks 開發的最先進的大型語言模型(LLM)。DBRX 在編程和編碼任務方面展示出了強大的實力,擅長使用 Python 等語言處理專門的主題和編寫特定的算法。此外,它還可以應用于文本完成任務和少回合交互。DBRX 的長上下文能力可用于 RAG 系統,以提高準確性和保真度。 模型對細粒度的使用 混合專家(MoE) 體系結構是它區別于其他模型的一個關鍵特性。該 MoE 架構通過利用一組專門的“專家”網絡,擅長處理復雜任務。在推理過程中,MoE 使用學習的門控機制,基于輸入數據動態選擇并組合這些專家網絡的輸出,以實現更好的性能。 這種門控機制將輸入數據的不同部分路由到最相關的專家網絡,使教育部能夠有效地利用其集體專業知識并產生卓越的預測或輸出。通過自適應地協調其組成網絡的貢獻,MoE 在有效利用計算資源的同時,

Source

]]>
9893
Mistral Large 和 Mixtral 8x22B LLM 現已由 NVIDIA NIM 和 NVIDIA API 提供支持 http://www.open-lab.net/zh-cn/blog/mistral-large-and-mixtral-8x22b-llms-now-powered-by-nvidia-nim-and-nvidia-api/ Mon, 22 Apr 2024 04:56:57 +0000 http://www.open-lab.net/zh-cn/blog/?p=9644 Continued]]> 本周發布的模型包括兩個新的 NVIDIA AI 基礎模型:Mistral Large 和 Mixtral 8x22B。這兩個高級文本生成 AI 模型由 Mistral AI 開發,并通過 NVIDIA NIM 微服務提供預構建容器,以簡化部署過程,將部署時間從數周縮短到幾分鐘。這兩個模型可通過 NVIDIA API 目錄 訪問。 Mistral Large 是大型語言模型 (LLM),它擅長處理復雜的多語種推理任務,包括文本理解、轉換和代碼生成。它因精通英語、法語、西班牙語、德語和意大利語以及對語法和文化語境的深入理解而脫穎而出。 該模型具有 32K 令牌上下文窗口,可從大量文檔中調用精確信息。它在指令跟隨和函數調用方面表現出色。Mistral Large 在各種基準測試中表現強勁,并展示了應對編碼和數學挑戰的強大推理能力。

Source

]]>
9644
人人超碰97caoporen国产