AI Foundation

2024 年 11 月 21 日
NVIDIA NIM でファインチューニングされた AI モデルのデプロイ
パフォーマンスを最適化した TensorRT-LLM 推論エンジンをローカルでビルドして、SFT でカスタマイズされたモデルに対する NIM マイクロサービスを迅速にデプロイする方法を説明します。
2 MIN READ

2024 年 3 月 14 日
LLM アーキテクチャにおける Mixture of Experts の適用
Mixture of Experts (MoE) 大規模言語モデル (LLM) アーキテクチャは、GPT-4 などの商用の LLM と…
4 MIN READ