AI – NVIDIA 技術博客 http://www.open-lab.net/zh-cn/blog 閱讀開發者創建的最新技術信息、頭條新聞 和內容。 Thu, 03 Nov 2022 06:13:42 +0000 zh-CN hourly 1 196178272 涵洞視覺堵塞檢測的 AIoT 解決方案 http://www.open-lab.net/zh-cn/blog/an-aiot-solution-for-visual-blockage-detection-at-culverts/ Wed, 02 Nov 2022 06:10:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=5593 Continued]]> 引發山洪的一個關鍵因素是,不需要的、洪水傳播的碎片被運輸,堵塞了交叉排水水工結構,如涵洞。 碎屑與涵洞的堆積和相互作用通常會導致水力容量降低、上游水流分流和結構破壞。例如, 2007 年的澳大利亞紐卡斯爾洪水、 1998 年的澳大利亞臥龍崗洪水和 2021 的英國彭特雷洪水只是少數幾個例子,其中堵塞被報告為交叉排水水力結構破壞的主要原因。 在這篇文章中,我們描述了我們為 計算機視覺 模型訓練構建不同視覺數據集的技術,包括合成圖像的示例。我們分解了解決方案的每個組成部分,并提供了未來研究方向的見解。 非線性碎片堆積、實時數據不可用以及復雜的流體動力學表明,傳統的基于數值模擬的方法解決該問題是無效的。在這種情況下,洪水后的視覺信息被用于制定阻塞政策,其中涉及幾個假設,許多人認為這些假設不是阻塞的真實代表。 這表明需要從技術角度更好地理解和探索堵塞問題,

Source

]]>
5593
人工智能服務器和人工智能工作站之間的差異 http://www.open-lab.net/zh-cn/blog/differences-between-ai-servers-and-ai-workstations/ Thu, 21 Jul 2022 05:08:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4659 Continued]]> 如果你想知道人工智能服務器和人工智能工作站有何不同,你不是唯一一個。假設嚴格的人工智能用例具有最小的圖形工作量,那么明顯的差異可以是最小到零。從技術上講,你可以用一個作為另一個。然而,根據要求每個人執行的工作量,每個人的結果將完全不同。因此,清楚地了解人工智能服務器和人工智能工作站之間的差異非常重要。 暫時撇開人工智能不談,服務器通常都是聯網的,可以作為一種共享資源來運行跨網絡訪問的服務。工作站通常用于執行特定用戶、應用程序或用例的請求。 工作站可以作為服務器,還是服務器可以作為工作站?答案是“是的”,但忽略工作站或服務器的設計目的通常沒有意義。例如,工作站和服務器都可以支持多線程工作負載,但如果服務器可以支持比工作站多 20 倍的線程(其他所有線程都相同),那么服務器將更適合為處理器同時處理創建多個線程的應用程序。 服務器經過優化,可以作為客戶端的網絡資源進行擴展。

Source

]]>
4659
Insilico Medicine 通過人工智能識別 ALS 的治療靶點 http://www.open-lab.net/zh-cn/blog/insilico-medicine-identifies-therapeutic-targets-for-als-with-ai/ Thu, 14 Jul 2022 07:23:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4607 Continued]]> 藥物發現初創公司 Insilico Medicine 與來自哈佛醫學院、約翰霍普金斯醫學院、梅奧診所等的研究人員一起使用人工智能識別了二十多個與肌萎縮側索硬化癥( ALS )相關的基因靶點。研究結果包括 17 個高置信度和 11 個新的治療靶點,最近發表在 衰老神經科學前沿 上。 利用 Insilico 的人工智能驅動的靶點發現引擎 PandaOmics ,研究人員分析了大量數據集,以發現新藥物可以靶向改善 ALS (也稱為 Lou Gehrig 病)預后的基因。如今,患者通常在癥狀出現后面臨 2 到 5 年的平均預期壽命。 研究團隊使用 NVIDIA GPU 來訓練用于目標識別的深度學習模型。 PandaOmics 人工智能引擎使用組學人工智能分數、基于文本的人工智能分數、財務分數等組合對基因目標進行排序。 ALS 是一種使人衰弱的疾病。患者迅速失去自主肌肉運動,

Source

]]>
4607
通過擴展 Omniverse 競賽為 3D 世界構建工具 http://www.open-lab.net/zh-cn/blog/build-tools-for-the-3d-world-with-the-extend-the-omniverse-contest/ Mon, 11 Jul 2022 02:27:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4556 Continued]]> 各個行業的開發人員正在構建 3D 工具和應用程序,以幫助團隊在藝術、設計、制造等領域創建虛擬世界。 NVIDIA Omniverse ,一個用于全保真度設計、仿真和開發的可擴展平臺 基于 USD 工作流,有一個不斷增長的開發人員生態系統,用于構建基于 Python 的擴展。我們過去曾推出過使用 Omniverse 創建應用程序構建驚人 3D 仿真的競賽。 今天,我們宣布我們的第一個 NVIDIA Omniverse 上下文 專門為開發人員、工程師、技術藝術家、愛好者和研究人員開發用于 3D 世界的 Python 工具。比賽時間為 2022 年 7 月 11 日至 8 月 19 日。總冠軍將獲得 NVIDIA RTX A6000 ,各類別的亞軍將獲得 GeForce RTX 3090 Ti 。 挑戰是什么呢?就是使用構建 Omniverse 擴展 Omniverse…

Source

]]>
4556
使用 NVIDIA Triton 模型分析器確定規模上的最佳 AI 模型服務配置 http://www.open-lab.net/zh-cn/blog/identifying-the-best-ai-model-serving-configurations-at-scale-with-triton-model-analyzer/ Mon, 23 May 2022 04:32:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4154 Continued]]> 模型部署是 機器學習 生命周期的一個關鍵階段,在此階段,經過培訓的模型將集成到現有的應用程序生態系統中。這往往是最繁瑣的步驟之一,在這些步驟中,目標硬件平臺應滿足各種應用程序和生態系統約束,所有這些都不會影響模型的準確性。 NVIDIA Triton 推理服務器 是一個開源的模型服務工具,它簡化了推理,并具有多個功能以最大限度地提高硬件利用率和推理性能。這包括以下功能: 有關更多信息,請參閱 使用 NVIDIA Triton 推理服務器快速、可擴展的 AI 模型部署 . 優化模型部署時,需要做出幾個關鍵決策: 這些關鍵決策導致了組合爆炸,每種型號和硬件選擇都有數百種可能的配置。通常,這會導致浪費開發時間或代價高昂的低于標準的服務決策。 在本文中,我們將探討 NVIDIA Triton 型號分析儀 可以自動瀏覽目標硬件平臺的各種服務配置,

Source

]]>
4154
利用數據增強零信任安全性 http://www.open-lab.net/zh-cn/blog/enhancing-zero-trust-security-with-data/ Tue, 17 May 2022 08:26:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4180 Continued]]> 隨著遠程和混合工作、自帶設備( BYOD )和基于云的基礎設施等數字企業趨勢的發展,設備和用戶如何與企業網絡交互,網絡安全也在不斷發展。有關更多信息,請參閱 零信任體系結構 。 如今,零信任是網絡安全領域的熱門話題,在 網絡安全會議和總統新聞發布室 中也有討論。零信任通常被解釋為結合了高摩擦策略,如持續的重新認證提示和自動注銷,這會給用戶體驗帶來障礙、時間和挫折。但利用零信任原則并不一定意味著將用戶交付給一個我們花在嘗試訪問數字資源和使用數字資源上的時間一樣多的世界。 在這篇文章中,我們澄清了關于零信任的困惑,并討論了一個深思熟慮的網絡安全團隊如何構建一個零信任系統,以確保用戶和數據的安全,并保持無縫的用戶體驗。 在評估如何最好地利用零信任原則之前,請后退一步定義它。據 零信任體系結構 論文稱,零信任是一種持續驗證的網絡安全框架,將“防御從靜態、

Source

]]>
4180
使用經 NVIDIA 認證的系統優化企業 IT 工作負載 http://www.open-lab.net/zh-cn/blog/optimizing-enterprise-it-workloads-with-nvidia-certified-systems/ Thu, 12 May 2022 05:39:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4007 Continued]]> GPU 加速的工作負載在所有行業都蓬勃發展,從使用人工智能來更好地參與客戶和進行業務預測的數據分析,到實現更快產品創新的高級可視化。 GPU 加速基礎設施的最大挑戰之一是選擇正確的硬件系統。雖然業務線關心性能和使用大量開發人員工具和框架的能力,但企業 IT 團隊還關心管理和安全等因素。 NVIDIA-Certified Systems 項目的創建是為了滿足這兩個群體的需求。配備 NVIDIA GPU 和網絡適配器的領先系統制造商的系統經過了嚴格的測試過程。如果服務器或工作站滿足一系列 GPU 加速應用程序的性能和可擴展性的特定標準,以及安全和管理功能的適當功能,則該服務器或工作站將被標記為 NVIDIA 認證。 每個候選系統的認證測試由系統制造商在其實驗室進行, NVIDIA 與每個合作伙伴合作,幫助他們確定最佳通過配置。 NVIDIA 研究了許多服務器型號的數百個結果,

Source

]]>
4007
介紹 NVIDIA HGX H100 :用于人工智能和高性能計算的加速服務器平臺 http://www.open-lab.net/zh-cn/blog/introducing-nvidia-hgx-h100-an-accelerated-server-platform-for-ai-and-high-performance-computing/ Fri, 08 Apr 2022 09:06:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=3673 Continued]]> NVIDIA 的使命是加快我們的時代達芬奇和愛因斯坦的工作,并賦予他們解決社會的巨大挑戰。隨著 人工智能 ( AI )、 高性能計算 ( HPC )和數據分析的復雜性呈指數級增長,科學家需要一個先進的計算平臺,能夠在一個十年內實現百萬次的加速,以解決這些非同尋常的挑戰。 為了回答這個需求,我們介紹了NVIDIA HGX H100 ,一個由 NVIDIA Hopper 架構 供電的密鑰 GPU 服務器構建塊。這一最先進的平臺安全地提供了低延遲的高性能,并集成了從網絡到數據中心級計算(新的計算單元)的全套功能。 在這篇文章中,我將討論NVIDIA HGX H100 是如何幫助我們加速計算數據中心平臺的下一個巨大飛躍。 HGX H100 8- GPU 是新一代 Hopper GPU 服務器的關鍵組成部分。它擁有八個 H100 張量核 GPU 和四個第三代 NV 交換機。

Source

]]>
3673
使用 NVIDIA Triton 推理服務器快速、可擴展的 AI 模型部署 http://www.open-lab.net/zh-cn/blog/fast-and-scalable-ai-model-deployment-with-nvidia-triton-inference-server/ Wed, 10 Nov 2021 07:16:16 +0000 http://www.open-lab.net/zh-cn/blog/?p=2144 Continued]]> AI是一種編寫軟件的新方法, AI 推理正在運行該軟件。 AI machine learning正在解鎖各種領域的突破性應用,如在線產品推薦、圖像分類、聊天機器人、預測、制造質量檢查等。構建一個用于產生式推理的平臺是非常困難的。原因如下。 應用程序有不同的需求,需要根據用戶的需求進行不同的優化。 不同的用例利用不同的模型類型,這會生成非常不同的計算圖,為了獲得最佳性能,應該對這些圖進行編譯。一些流行的模型類型有卷積神經網絡( CNN )、遞歸神經網絡( RNN )、 transformers 、決策樹、隨機森林和圖形神經網絡。 模型在不同的框架中進行訓練 并且有不同的格式–TensorFlow, PyTorch、 TensorRT 、 ONNX 、MXNet和XGBoost等等。 應用程序運行在許多應用程序之上 不同的人工智能平臺——國產平臺,

Source

]]>
2144
使用 NVIDIA Nsight Deep Learning Designer 設計深度學習應用程序 http://www.open-lab.net/zh-cn/blog/designing-deep-learning-applications-with-nsight-dl-designer/ Wed, 10 Nov 2021 05:34:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=2299 Continued]]> NVIDIA Nsight Deep Learning Designer 是一款新工具,有助于簡化性能模型設計過程。 DL Designer 對模型的結構以及它在 NVIDIA 硬件上的性能提供了有價值的見解。可以使用用戶友好的拖放界面創建模型,該界面具有最流行的深度學習框架中所有常用操作符的節點。 從一開始就必須了解模型的性能特征。設計模型后,可以對其進行性能分析。 要選擇并查看最新的分析報告,請選擇發射推斷,看法,推理運行記錄器. 這分為兩個主要部分。如前所示,第一個為您提供了一個運算符表、它們的超參數和執行時間。默認情況下,它們是按優化優先級順序列出的(類似于 按優化優先級順序列出內核的方式)。 對于在 NVIDIA 硬件上運行的任何模型,無論是訓練還是推理,一個重要的問題是,“該模型是否使用張量核”?剖面報告的第二部分顯示了張量核的利用情況。

Source

]]>
2299
人人超碰97caoporen国产