LangChain – NVIDIA 技術博客
http://www.open-lab.net/zh-cn/blog
閱讀開發者創建的最新技術信息、頭條新聞 和內容。
Thu, 12 Dec 2024 04:07:19 +0000
zh-CN
hourly
1
196178272 -
使用 NVIDIA NIM 構建您的人工在環 AI 智能體首秀
http://www.open-lab.net/zh-cn/blog/build-your-first-human-in-the-loop-ai-agent-with-nvidia-nim/
Thu, 21 Nov 2024 06:39:19 +0000
http://www.open-lab.net/zh-cn/blog/?p=12153
Continued]]>
由 大語言模型(LLMs) 提供支持的 AI 智能體 可幫助組織簡化和減少手動工作負載。這些智能體使用多層迭代推理來分析問題、設計解決方案,并使用各種工具執行任務。與傳統聊天機器人不同,LLM 提供支持的智能體能夠有效理解和處理信息,從而實現復雜任務的自動化。為避免特定應用中的潛在風險,在使用自主 AI 智能體時,保持人工監督仍然至關重要。 在本文中,您將學習如何使用 NVIDIA NIM 微服務 (一種針對 AI 推理優化的加速 API)構建人類在環 AI 智能體。該博文介紹了一個社交媒體用例,展示了這些多功能 AI 智能體如何輕松處理復雜任務。借助 NIM 微服務,您可以將高級 LLM(如 Llama 3.1-70B-Instruct 和 Falcon 180B 等)無縫集成到工作流中,從而提供 AI 驅動任務所需的可擴展性和靈活性。無論您是使用 PyTorch、
Source
]]>
12153
-
使用 NVIDIA NIM 和 LangChain 創建自定義 Slackbot LLM 智能體
http://www.open-lab.net/zh-cn/blog/create-a-custom-slackbot-llm-agent-with-nvidia-nim-and-langchain/
Tue, 19 Nov 2024 08:59:27 +0000
http://www.open-lab.net/zh-cn/blog/?p=12191
Continued]]>
在現代商業的動態世界中,通信和高效的工作流對成功至關重要,人工智能(AI)解決方案已經成為競爭優勢。 AI 智能體基于先進的 大語言模型 (LLM)構建,并由 NVIDIA NIM 提供支持,能夠以無縫方式提高工作效率和信息流。NIM 是 NVIDIA AI Enterprise 的一部分,是一套易于使用的微服務,旨在跨云、數據中心和工作站安全、可靠地部署高性能 AI 模型推理。 通過利用 NIM 微服務的強大功能,企業可以利用 API Catalog 中的模型 ,快速構建超越簡單自動化的 智能 Slackbot 。這表明 API Catalog 可用于生產部署。這些 Slackbot 成為寶貴的虛擬助手,能夠處理各種任務——從回答基本查詢到解決復雜問題,甚至生成創意內容。這不僅可以節省時間和資源,還可以打造更具協作性和高效的工作環境。 在本文中,
Source
]]>
12191
-
使用 NVIDIA AI 端點和 Ragas 對醫療 RAG 的評估分析
http://www.open-lab.net/zh-cn/blog/evaluating-medical-rag-with-nvidia-ai-endpoints-and-ragas/
Tue, 01 Oct 2024 08:59:35 +0000
http://www.open-lab.net/zh-cn/blog/?p=11492
Continued]]>
在快速發展的醫學領域,尖端技術的集成對于增強患者護理和推進研究至關重要。其中一項創新是 檢索增強生成(RAG),它正在改變醫療信息的處理和使用方式。 RAG 將 大語言模型 (LLMs) 的功能與外部知識檢索相結合,解決了信息過時和生成不準確數據(稱為“幻覺”)等關鍵限制。通過從結構化數據庫、科學文獻和患者記錄中檢索最新的相關信息,RAG 為醫療應用提供了更準確、更符合情境感知的基礎。這種混合方法提高了生成輸出的準確性和可靠性,并增強了可解釋性,使其成為藥物研發和臨床試驗篩選等領域的重要工具。 隨著我們繼續探索 RAG 在醫學領域 的潛力,必須嚴格評估其性能,同時考慮檢索和生成組件,以確保在醫療應用中實現更高的準確性和相關性標準。醫療 RAG 系統具有獨特的需求和要求,這凸顯了對全面評估框架的需求,這些框架可以有力地解決這些問題。 在本文中,
Source
]]>
11492
-
利用重新排名技術增強 RAG 管道性能
http://www.open-lab.net/zh-cn/blog/enhancing-rag-pipelines-with-re-ranking/
Tue, 30 Jul 2024 06:24:28 +0000
http://www.open-lab.net/zh-cn/blog/?p=10955
Continued]]>
在快速發展的 AI 驅動應用程序格局中,重新排名已成為提高企業搜索結果的準確性和相關性的關鍵技術。通過使用先進的機器學習算法,重新排名可以優化初始搜索輸出,以更好地與用戶意圖和上下文保持一致,從而顯著提高語義搜索的有效性。這通過提供更準確、更符合上下文的結果來提高用戶滿意度,同時還提高了轉化率和參與度指標。 重新排名在優化檢索增強生成(Retrieval-Augmented Generation,RAG)流程方面也發揮著至關重要的作用,可確保大型語言模型(Large Language Models,LLMs)處理最相關和高質量的信息。重新排名的這一雙重優勢(增強語義搜索和RAG流程)使其成為旨在提供卓越搜索體驗并在數字市場中保持競爭優勢的企業不可或缺的工具。 在本文中,我使用了 NVIDIA NeMo Retriever Reranking NIM。
Source
]]>
10955
-
使用 LangChain 模板和 NVIDIA NeMo Guardrails 構建更安全的 LLM 應用
http://www.open-lab.net/zh-cn/blog/building-safer-llm-apps-with-langchain-templates-and-nvidia-nemo-guardrails/
Fri, 31 May 2024 08:51:58 +0000
http://www.open-lab.net/zh-cn/blog/?p=10264
Continued]]>
易于部署的參考架構可以幫助開發者通過自定義 LLM 用例更快地投入生產。LangChain 模板是一種創建、共享、維護、下載和自定義基于 LLM 的代理和鏈的新方式。 這個過程非常簡單。您可以創建一個包含鏈目錄的應用項目,確定要使用的模板,將其下載到應用項目中,根據用例修改鏈,然后部署應用。對于企業語言模型(LLM)應用,NVIDIA NeMo Guardrails 可集成到模板中,用于內容審核、增強安全性和評估語言模型響應。 在這篇博客文章中,我們下載了一個帶有 RAG 用例的現有 LangChain 模板,然后介紹 NeMo Guardrails 的集成。 我們涵蓋: LangChain 模板 使開發者能夠添加更新的鏈和代理,以供其他人用于創建自定義應用程序。這些模板與 FastAPI 無縫集成,用于使用 Python 構建 API,從而提高速度和易用性。
Source
]]>
10264
-
使用 NVIDIA AI LangChain AI 端點構建 RAG 管道的提示
http://www.open-lab.net/zh-cn/blog/tips-for-building-a-rag-pipeline-with-nvidia-ai-langchain-ai-endpoints/
Wed, 08 May 2024 06:22:32 +0000
http://www.open-lab.net/zh-cn/blog/?p=9852
Continued]]>
檢索增強生成(RAG)是一種將信息檢索與一組精心設計的系統提示相結合的技術,旨在從 大型語言模型(LLM)中生成高質量的內容。通過合并來自各種來源的數據,如關系數據庫、非結構化文檔存儲庫、互聯網數據流和媒體新聞源,RAG 可以顯著提高 生成人工智能 系統的性能和準確性。 開發人員在構建 RAG 管道時必須考慮多種因素:從 LLM 響應基準測試到選擇正確的塊大小。 在這篇文章中,我將演示如何使用 LangChain 的 NVIDIA AI 終結點。首先,通過下載網頁并使用 NVIDIA NeMo Retriever 嵌入微服務,然后使用搜索相似性 FAISS。接著,我將展示兩個不同的聊天鏈,用于查詢矢量儲存。對于此示例,我參考了 NVIDIA Triton 推理服務器文檔,盡管可以很容易地修改代碼以使用任何其他源代碼。 欲了解更多信息和后續內容,
Source
]]>
9852
-
用于 SQL 和代碼生成的新 LLM:Snowflake Arctic 模型
http://www.open-lab.net/zh-cn/blog/new-llm-snowflake-arctic-model-for-sql-and-code-generation/
Fri, 26 Apr 2024 09:06:33 +0000
http://www.open-lab.net/zh-cn/blog/?p=9911
Continued]]>
近年來,大型語言模型(LLM)徹底改變了自然語言處理(NLP),實現了文本摘要、問答和自然語言生成等廣泛的應用。 由 Snowflake 開發的 Arctic 是一種新的開放 LLM,旨在實現高推理性能,同時在各種 NLP 任務上保持低成本。 Arctic Arctic 基于一種新的密集 MoE(專家混合物)混合變壓器架構,該架構將 10B 參數密集變壓器模型與殘差 128×3.66B MoE 多層感知器(MLP)相結合,從而有效地隱藏普通 MoE 模型在計算過程中施加的額外全對全通信開銷。這樣,該體系結構能夠在訓練和推理過程中更有效地使用資源。 由此產生的網絡具有 480B 的總參數,并使用前 2 個門控讓專家選擇 17B 的活動參數。通過利用大量專家和總參數,該體系結構允許頂級智能,同時從許多但精簡的專家中進行選擇,僅使用適量的活動參數進行訓練和具有成本效益的推理。
Source
]]>
9911
人人超碰97caoporen国产