微調 – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Wed, 25 Jun 2025 05:26:38 +0000
zh-CN
hourly
1
196178272 -
隆重推出 Nemotron-H 推理模型家族:吞吐量提升無需妥協
http://www.open-lab.net/zh-cn/blog/nemotron-h-reasoning-enabling-throughput-gains-with-no-compromises/
Fri, 06 Jun 2025 05:22:25 +0000
http://www.open-lab.net/zh-cn/blog/?p=14406
Continued]]>
隨著大語言模型在數學和科學等領域越來越多地承擔推理密集型任務,其輸出長度也變得越來越長,有時會跨越數萬個 token。這種轉變使得高效吞吐量成為一個關鍵瓶頸,尤其是在現實世界、延遲敏感型環境中部署模型時。 為了應對這些挑戰,并使研究社區能夠推進推理模型背后的科學發展,NVIDIA 開發了 Nemotron-H-47B-Reasoning-128K 和 Nemotron-H-8B-Reasoning-128k。這兩種模型還提供 FP8 量化變體。所有模型均基于 Nemotron-H-47B-Base-8K 和 Nemotron-H-8B-Base-8K 基礎模型開發而成。 與類似大小的 Transformer 模型相比,該系列中功能最強大的模型 Nemotron-H-47B-Reasoning 可顯著加快推理時間。值得注意的是,
Source
]]>
14406
-
利用特定領域的微調和 NVIDIA NIM 提高翻譯質量
http://www.open-lab.net/zh-cn/blog/improving-translation-quality-with-domain-specific-fine-tuning-and-nvidia-nim/
Wed, 05 Feb 2025 04:30:55 +0000
http://www.open-lab.net/zh-cn/blog/?p=12871
Continued]]>
翻譯在助力公司實現跨國業務擴展方面發揮著至關重要的作用,在語調、準確性和技術術語處理方面的要求差異很大。 主權 AI 的出現凸顯了 大語言模型(LLM) 面臨的嚴峻挑戰,尤其是他們難以捕捉英語主導框架之外的細微文化和語言背景。隨著全球通信變得日益復雜,組織必須仔細評估翻譯解決方案,以平衡技術效率與文化敏感性和語言準確性。 在本文中,我們將探討 LLMs 如何解決以下兩種截然不同的英語到繁體中文翻譯用例: 這些用例需要采用常規翻譯以外的專門方法。雖然 使用指令調整 LLMs 進行提示工程 可以處理某些情境,但此類更精細的任務通常無法達到預期效果。因此,在針對每個翻譯環境收集的特定數據集上單獨微調 Low-Rank Adaptation(LoRA)適配器變得至關重要。 在此項目中,我們將使用 Llama 3.1 8B Instruct 作為預訓練模型,
Source
]]>
12871
-
微調小型語言模型以提高代碼審查準確性
http://www.open-lab.net/zh-cn/blog/fine-tuning-small-language-models-to-optimize-code-review-accuracy/
Tue, 17 Dec 2024 10:01:01 +0000
http://www.open-lab.net/zh-cn/blog/?p=12508
Continued]]>
生成式 AI 通過 推動眾多 應用的創新和提高效率,正在改變企業。然而,采用大型 基礎模型 會帶來一些挑戰,包括高成本、慢性能、以及數據隱私問題。許多企業不愿與外部 LLM 提供商共享敏感代碼或數據。此外,雖然基礎 LLM 擅長處理一般任務,但它們通常需要大量的提示工程,才能在以企業為中心的特定用例中實現高準確性。 微調 小語言模型 (SLMs) 通常利用知識蒸餾等技術,為應對這些挑戰提供了極具吸引力的解決方案。這些較小的 LLM 可提供接近更大模型的性能,并且速度更快、成本效益更高。此外,SLMs 可以部署在本地或虛擬私有云 (VPCs) 中,使企業能夠確保敏感數據的安全。然而,微調較小的模型需要高質量的標記數據,而創建這些數據既耗時又昂貴。 本文介紹了一種自動微調方法,該方法通過使用數據飛輪策略來應對這些挑戰。數據飛輪策略是一種反饋驅動機制,可迭代地提高模型性能。
Source
]]>
12508
-
利用 NVIDIA NIM 實現 AI 模型微調部署
http://www.open-lab.net/zh-cn/blog/deploying-fine-tuned-ai-models-with-nvidia-nim/
Thu, 21 Nov 2024 06:46:49 +0000
http://www.open-lab.net/zh-cn/blog/?p=12157
Continued]]>
對于使用特定領域數據調整 AI 基礎模型的組織而言,快速創建和部署微調模型的能力是高效地通過企業生成式 AI 應用提供價值的關鍵。 NVIDIA NIM 為最新的 AI 基礎模型提供預構建、性能優化的推理微服務,包括使用參數高效微調 (PEFT) 自定義的模型的 無縫部署 。 在某些情況下,理想的做法是使用持續預訓練、DPO、監督微調(SFT)或模型合并等方法,這些方法直接在訓練或自定義過程中調整基礎模型權重,這與使用低階適應(LoRA)的 PEFT 不同。在這些情況下,必須更新模型的推理軟件配置,以便在給定新權重時獲得最佳性能。 NIM 可以自動構建針對本地環境中調整后的模型和 GPU 優化的 TensorRT-LLM 推理引擎性能,然后加載該引擎,以便在單步模型部署流程中運行推理,而無需承擔這一通常漫長的過程。 在本文中,
Source
]]>
12157
人人超碰97caoporen国产