Rich Harang

Rich Harang 是 NVIDIA 的首席安全架構師,專門研究 ML / AI 系統,在計算機安全、機器學習和隱私領域擁有十多年的經驗。 2010 年,他在加州大學圣巴巴拉分校獲得統計學博士學位。在加入 NVIDIA 之前,他領導 Duo 的算法研究團隊,在 Sophos AI 領導使用機器學習模型檢測惡意軟件、腳本和網絡內容的研究,并在美國陸軍研究實驗室擔任團隊領導。他的研究興趣包括對抗性機器學習、解決機器學習中的偏見和不確定性,以及使用機器學習支持人類分析的方法。 Richard 的作品曾在 USENIX 、 BlackHat 、 IEEE s & P 研討會和 DEF CON AI Village 等會議上發表,并在 The Register 和 KrebsOnSecurity 上發表。

Posts by Rich Harang

網絡安全

構建應用程序以安全使用 KV 緩存

在與基于 Transformer 的模型 (如 大語言模型 (LLM) 和 視覺語言模型 (VLM)) 交互時,輸入結構會塑造模型的輸出。 2 MIN READ
網絡安全

代理自主級別與安全性

智能體工作流是 AI 賦能工具的下一次演進。它們使開發者能夠將多個 AI 模型關聯在一起以執行復雜的活動, 2 MIN READ
網絡安全

定義 LLM 紅色團隊

在一項活動中,人們為生成式 AI 技術 (例如大語言模型 (LLMs)) 提供輸入,以確定輸出是否會偏離可接受的標準。 1 MIN READ
網絡安全

NVIDIA 在領先的網絡安全會議上展示 AI 安全專業知識

每年 8 月,成千上萬的安全專業人員都會參加最前沿的安全會議 Black Hat USA 和 DEF CON。這一年, 2 MIN READ
網絡安全

使用 Canaries 防止 AI 模型文件未經授權訪問

隨著 AI 模型在功能和創建成本方面的增長,它們保存了更多敏感或專有數據,保護靜態數據變得越來越重要。為此,組織正在設計策略和工具, 2 MIN READ
對話式人工智能

加強 LLM 應用安全性的最佳實踐

大型語言模型 (LLM) 為幾乎所有處理文本的應用程序提供了各種強大的增強功能。同時,它們也引入了新的風險,包括: 2 MIN READ