AI 紅色團隊

2025年 4月 29日
構建應用程序以安全使用 KV 緩存
在與基于 Transformer 的模型 (如 大語言模型 (LLM) 和 視覺語言模型 (VLM)) 交互時,輸入結構會塑造模型的輸出。
2 MIN READ

2025年 2月 25日
定義 LLM 紅色團隊
在一項活動中,人們為生成式 AI 技術 (例如大語言模型 (LLMs)) 提供輸入,以確定輸出是否會偏離可接受的標準。
1 MIN READ

2024年 12月 16日
借助 WebAssembly 實現沙箱 Agentic AI 工作流
代理 AI 工作流通常 涉及執行由 大語言模型 (LLM) 生成的代碼,以執行創建數據可視化等任務。但是,此代碼應在安全環境中清理和執行,
2 MIN READ

2024年 9月 18日
NVIDIA 在領先的網絡安全會議上展示 AI 安全專業知識
每年 8 月,成千上萬的安全專業人員都會參加最前沿的安全會議 Black Hat USA 和 DEF CON。這一年,
2 MIN READ

2024年 7月 11日
使用 Canaries 防止 AI 模型文件未經授權訪問
隨著 AI 模型在功能和創建成本方面的增長,它們保存了更多敏感或專有數據,保護靜態數據變得越來越重要。為此,組織正在設計策略和工具,
2 MIN READ

2024年 6月 27日
保護應用程序完整性的安全 LLM 令牌化解決方案
本文是 NVIDIA AI Red Team 持續漏洞和技術研究的一部分。NVIDIA AI Red Team’…
1 MIN READ