Zenodia Charpy – NVIDIA 技術博客 http://www.open-lab.net/zh-cn/blog 閱讀開發者創建的最新技術信息、頭條新聞 和內容。 Thu, 28 Nov 2024 06:46:01 +0000 zh-CN hourly 1 196178272 使用 NVIDIA NIM 構建您的人工在環 AI 智能體首秀 http://www.open-lab.net/zh-cn/blog/build-your-first-human-in-the-loop-ai-agent-with-nvidia-nim/ Thu, 21 Nov 2024 06:39:19 +0000 http://www.open-lab.net/zh-cn/blog/?p=12153 Continued]]> 由 大語言模型(LLMs) 提供支持的 AI 智能體 可幫助組織簡化和減少手動工作負載。這些智能體使用多層迭代推理來分析問題、設計解決方案,并使用各種工具執行任務。與傳統聊天機器人不同,LLM 提供支持的智能體能夠有效理解和處理信息,從而實現復雜任務的自動化。為避免特定應用中的潛在風險,在使用自主 AI 智能體時,保持人工監督仍然至關重要。 在本文中,您將學習如何使用 NVIDIA NIM 微服務 (一種針對 AI 推理優化的加速 API)構建人類在環 AI 智能體。該博文介紹了一個社交媒體用例,展示了這些多功能 AI 智能體如何輕松處理復雜任務。借助 NIM 微服務,您可以將高級 LLM(如 Llama 3.1-70B-Instruct 和 Falcon 180B 等)無縫集成到工作流中,從而提供 AI 驅動任務所需的可擴展性和靈活性。無論您是使用 PyTorch、

Source

]]>
12153
應用語言模型技術創作人工智能音樂 http://www.open-lab.net/zh-cn/blog/leveraging-ai-music-with-nvidia-dgx-2/ Mon, 22 Aug 2022 03:24:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4942 Continued]]> 諸如 NVIDIA Megatron LM 和 OpenAI GPT-2 和 GPT-3 等語言模型已被用于提高人類生產力和創造力。具體而言,這些模型已被用作編寫、編程和繪制的強大工具。相同的架構可以用于音樂創作。 在這些領域中使用語言模型需要大型數據集。從 50GB 的未壓縮文本文件開始生成語言并不奇怪。這意味著需要 GPU 計算日志來有效地訓練模型,以進行快速開發、原型制作和迭代。 這篇文章介紹了在人工智能音樂領域使用 NVIDIA DGX-2 站臺 DGX-2 極大地促進了數據預處理和訓練語言模型的進步。 計算音樂數據集有兩大類。一種方法涉及對表示為純音頻( WAV 文件或 MP3 )的音樂進行訓練。第二種方法不適用于純音頻。相反,您可以將任何類似于樂譜的內容映射到標記表示。 通常,這需要標記哪個音符開始( C 、 D 、 E 、

Source

]]>
4942
采用 P-Tuning 解決非英語下游任務 http://www.open-lab.net/zh-cn/blog/adapting-p-tuning-to-solve-non-english-downstream-tasks/ Tue, 12 Jul 2022 05:25:00 +0000 http://www.open-lab.net/zh-cn/blog/?p=4586 Continued]]> 隨著對預訓練大型語言模型( LLM )權重訪問需求的增加,圍繞 LLM 共享的環境正在發生變化。最近, Meta 發布了 開式預訓練Transformer ,一個具有 1750 億個參數的語言模型。 BigScience 計劃在幾個月內發布具有 1760 億個參數的多語言模型。 隨著越來越多的 LLM 可用,行業需要解決實際自然語言任務的技術。研究表明, 模型提示方法 可以從 LLM 中獲得良好的零拍和少拍性能,并有助于在各種下游自然語言處理( NLP )任務中產生高質量的結果。白皮書提出了一種解決方案,使經過預訓練的通用 LLM 在自然語言處理領域日益流行的新 預訓練、提示和預測 范式中切實有用。 然而,當您將提示方法應用于工業自然語言處理應用程序時,還需要考慮其他挑戰。對于任何下游 NLP 任務,必須收集標記數據,以指示語言模型如何生成預期結果。 盡管對于許多任務,

Source

]]>
4586
人人超碰97caoporen国产